python 基础之文件读操作

创建一个名为‘尘曦’的文件内容如下

Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算

  文件读操作

x=open('尘曦','r',encoding='utf8')#定义文件对象及字符集
cx=x.read()#读取文件
print(cx)
x.close()#关闭文件

  测试

D:\python\python.exe D:/untitled/dir/for.py
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算

Process finished with exit code 0

  读取文件前9个字符

x=open('尘曦','r',encoding='utf8')#定义文件对象及字符集
cx=x.read(9)#读取文件的前9个字符
print(cx)
x.close()#关闭文件

  测试

D:\python\python.exe D:/untitled/dir/for.py
Hadoop是一个

Process finished with exit code 0

  写文件操作

h=open('尘曦','r',encoding='utf8')# 先读
ch=h.read()
print(ch)
h.close()
x=open('尘曦','w',encoding='utf8')#定义文件的操作对象及字符集,w写;注意它写之前把文件清空
x.write('fghgfhh')
x.close()
print('修改成功') c=open('尘曦','r',encoding='utf8')#改完后去读,查看内容 cc = c.read() print(cc) c.close()

  测试

Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算
修改成功
fghgfhh

  新建一个文件与文件追加操作

c = open('尘曦-2','w',encoding='utf8')
c.write('哈哈哈')
c.write('尘曦')

  查看新文件

哈哈哈尘曦

  查看打开的文件句柄

c = open('尘曦-2','w',encoding='utf8')
print(c.fileno())  #打印文件句柄
c.write('哈哈哈')
c.write('尘曦')

  测试

D:\python\python.exe D:/untitled/dir/for.py
3

Process finished with exit code 0

  对文件追加内容

d = open('尘曦','r',encoding='utf8')
xd = d.read()
print(xd)
f = open('尘曦','a',encoding='utf8')
f.write('\n chenxi hahqa')
f.write('\n dff')
f.close()
x = open('尘曦','r',encoding='utf8')
cx = x.read()
print(cx)
x.close()

  测试

D:\python\python.exe D:/untitled/dir/for.py
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算

Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算

 chenxi hahqa
 dff

  以列表格式显示

d = open('尘曦','r',encoding='utf8')
print(d.readline())
print(d.readlines())  #以列表形式显示所有内容

  测试

D:\python\python.exe D:/untitled/dir/for.py
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。

['用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。\n', '[1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。\n', 'Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算\n', '\n', ' chenxi hahqa\n', ' dff']

  正常查看

d = open('尘曦','r',encoding='utf8')
for i in d.readlines():
    print(i.strip())

  测试

Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算

chenxi hahqa
dff

  第三行打印的时候加一个字符串

d = open('尘曦','r',encoding='utf8')
nu=0
for i in d.readlines():
    nu += 1
    if nu == 3:
        print(i.strip(),'chenxi')
    else:
        print(i.strip())
d.close()

  测试

Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 chenxi
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算

chenxi hahqa
dff

  原文

漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。
斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。

  一行一行取文件内容

d = open('尘曦','r',encoding='utf8')
for i in d:
    print(i.strip())
d.close()

  测试

D:\python\python.exe D:/untitled/dir/for.py
漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。
斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。

  原文

nihao chenxi haha woai ni
漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。
斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。

  现在光标所在字符下标;一个中文字符是三个

d = open('尘曦','r',encoding='utf8')
print(d.tell())
print(d.read(4))
print(d.tell())

  测试

D :\python\python.exe D:/untitled/dir/for.py
0
niha
4

Process finished with exit code 0

  调整光标位置

d = open('尘曦','r',encoding='utf8')
print(d.tell())  #查看当前光标所在位置
print(d.read(4)) # 读取四个字符
print(d.tell())  #查看当前光标所在位置
print(d.read(5)) #从光标所在的位置向后读取5个字符
print(d.tell())# 显示光标所在位置
print(d.seek(0))#将光标移至文件收字符
print(d.read(2))#从首字符向后读取2个字符
print(d.tell())# 查看光标所在位置

  测试

D:\python\python.exe D:/untitled/dir/for.py
0
niha
4
o che
9
0
ni
2

  

 

posted @ 2019-07-02 11:16  烟雨楼台,行云流水  阅读(230)  评论(0编辑  收藏  举报