python 基础之文件读操作
创建一个名为‘尘曦’的文件内容如下
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算
文件读操作
x=open('尘曦','r',encoding='utf8')#定义文件对象及字符集 cx=x.read()#读取文件 print(cx) x.close()#关闭文件
测试
D:\python\python.exe D:/untitled/dir/for.py Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 Process finished with exit code 0
读取文件前9个字符
x=open('尘曦','r',encoding='utf8')#定义文件对象及字符集 cx=x.read(9)#读取文件的前9个字符 print(cx) x.close()#关闭文件
测试
D:\python\python.exe D:/untitled/dir/for.py Hadoop是一个 Process finished with exit code 0
写文件操作
h=open('尘曦','r',encoding='utf8')# 先读 ch=h.read() print(ch) h.close() x=open('尘曦','w',encoding='utf8')#定义文件的操作对象及字符集,w写;注意它写之前把文件清空 x.write('fghgfhh') x.close()
print('修改成功') c=open('尘曦','r',encoding='utf8')#改完后去读,查看内容 cc = c.read() print(cc) c.close()
测试
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 修改成功 fghgfhh
新建一个文件与文件追加操作
c = open('尘曦-2','w',encoding='utf8') c.write('哈哈哈') c.write('尘曦')
查看新文件
哈哈哈尘曦
查看打开的文件句柄
c = open('尘曦-2','w',encoding='utf8') print(c.fileno()) #打印文件句柄 c.write('哈哈哈') c.write('尘曦')
测试
D:\python\python.exe D:/untitled/dir/for.py 3 Process finished with exit code 0
对文件追加内容
d = open('尘曦','r',encoding='utf8') xd = d.read() print(xd) f = open('尘曦','a',encoding='utf8') f.write('\n chenxi hahqa') f.write('\n dff') f.close() x = open('尘曦','r',encoding='utf8') cx = x.read() print(cx) x.close()
测试
D:\python\python.exe D:/untitled/dir/for.py Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 chenxi hahqa dff
以列表格式显示
d = open('尘曦','r',encoding='utf8') print(d.readline()) print(d.readlines()) #以列表形式显示所有内容
测试
D:\python\python.exe D:/untitled/dir/for.py Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 ['用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。\n', '[1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。\n', 'Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算\n', '\n', ' chenxi hahqa\n', ' dff']
正常查看
d = open('尘曦','r',encoding='utf8') for i in d.readlines(): print(i.strip())
测试
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 chenxi hahqa dff
第三行打印的时候加一个字符串
d = open('尘曦','r',encoding='utf8') nu=0 for i in d.readlines(): nu += 1 if nu == 3: print(i.strip(),'chenxi') else: print(i.strip()) d.close()
测试
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 chenxi Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 chenxi hahqa dff
原文
漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。 斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。
一行一行取文件内容
d = open('尘曦','r',encoding='utf8') for i in d: print(i.strip()) d.close()
测试
D:\python\python.exe D:/untitled/dir/for.py 漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。 斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。
原文
nihao chenxi haha woai ni 漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。 斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。
现在光标所在字符下标;一个中文字符是三个
d = open('尘曦','r',encoding='utf8') print(d.tell()) print(d.read(4)) print(d.tell())
测试
D :\python\python.exe D:/untitled/dir/for.py 0 niha 4 Process finished with exit code 0
调整光标位置
d = open('尘曦','r',encoding='utf8') print(d.tell()) #查看当前光标所在位置 print(d.read(4)) # 读取四个字符 print(d.tell()) #查看当前光标所在位置 print(d.read(5)) #从光标所在的位置向后读取5个字符 print(d.tell())# 显示光标所在位置 print(d.seek(0))#将光标移至文件收字符 print(d.read(2))#从首字符向后读取2个字符 print(d.tell())# 查看光标所在位置
测试
D:\python\python.exe D:/untitled/dir/for.py 0 niha 4 o che 9 0 ni 2
草都可以从石头缝隙中长出来更可况你呢