python 基础之文件读操作
创建一个名为‘尘曦’的文件内容如下
1 2 3 4 | Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [ 1 ] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low - cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set )的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 |
文件读操作
1 2 3 4 | x = open ( '尘曦' , 'r' ,encoding = 'utf8' ) #定义文件对象及字符集 cx = x.read() #读取文件 print (cx) x.close() #关闭文件 |
测试
1 2 3 4 5 6 7 | D:\python\python.exe D: / untitled / dir / for .py Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [ 1 ] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low - cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set )的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 Process finished with exit code 0 |
读取文件前9个字符
1 2 3 4 | x = open ( '尘曦' , 'r' ,encoding = 'utf8' ) #定义文件对象及字符集 cx = x.read( 9 ) #读取文件的前9个字符 print (cx) x.close() #关闭文件 |
测试
1 2 3 4 | D:\python\python.exe D: / untitled / dir / for .py Hadoop是一个 Process finished with exit code 0 |
写文件操作
1 2 3 4 5 6 7 8 9 10 11 | h = open ( '尘曦' , 'r' ,encoding = 'utf8' ) # 先读 ch = h.read() print (ch) h.close() x = open ( '尘曦' , 'w' ,encoding = 'utf8' ) #定义文件的操作对象及字符集,w写;注意它写之前把文件清空 x.write( 'fghgfhh' ) x.close()<br> print ( '修改成功' ) c = open ( '尘曦' , 'r' ,encoding = 'utf8' ) #改完后去读,查看内容 cc = c.read() print (cc) c.close() |
测试
1 2 3 4 5 6 | Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [ 1 ] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low - cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set )的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 修改成功 fghgfhh |
新建一个文件与文件追加操作
1 2 3 | c = open ( '尘曦-2' , 'w' ,encoding = 'utf8' ) c.write( '哈哈哈' ) c.write( '尘曦' ) |
查看新文件
1 | 哈哈哈尘曦 |
查看打开的文件句柄
1 2 3 4 | c = open ( '尘曦-2' , 'w' ,encoding = 'utf8' ) print (c.fileno()) #打印文件句柄 c.write( '哈哈哈' ) c.write( '尘曦' ) |
测试
1 2 3 4 | D:\python\python.exe D: / untitled / dir / for .py 3 Process finished with exit code 0 |
对文件追加内容
1 2 3 4 5 6 7 8 9 10 11 | d = open ( '尘曦' , 'r' ,encoding = 'utf8' ) xd = d.read() print (xd) f = open ( '尘曦' , 'a' ,encoding = 'utf8' ) f.write( '\n chenxi hahqa' ) f.write( '\n dff' ) f.close() x = open ( '尘曦' , 'r' ,encoding = 'utf8' ) cx = x.read() print (cx) x.close() |
测试
1 2 3 4 5 6 7 8 9 10 11 12 13 | D:\python\python.exe D: / untitled / dir / for .py Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [ 1 ] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low - cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set )的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [ 1 ] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low - cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set )的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 chenxi hahqa dff |
以列表格式显示
1 2 3 | d = open ( '尘曦' , 'r' ,encoding = 'utf8' ) print (d.readline()) print (d.readlines()) #以列表形式显示所有内容 |
测试
1 2 3 4 | D:\python\python.exe D: / untitled / dir / for .py Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 [ '用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。\n' , '[1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。\n' , 'Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算\n' , '\n' , ' chenxi hahqa\n' , ' dff' ] |
正常查看
1 2 3 | d = open ( '尘曦' , 'r' ,encoding = 'utf8' ) for i in d.readlines(): print (i.strip()) |
测试
1 2 3 4 5 6 7 | Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [ 1 ] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low - cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set )的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 chenxi hahqa dff |
第三行打印的时候加一个字符串
1 2 3 4 5 6 7 8 9 | d = open ( '尘曦' , 'r' ,encoding = 'utf8' ) nu = 0 for i in d.readlines(): nu + = 1 if nu = = 3 : print (i.strip(), 'chenxi' ) else : print (i.strip()) d.close() |
测试
1 2 3 4 5 6 7 | Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 [ 1 ] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low - cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set )的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 chenxi Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 chenxi hahqa dff |
原文
1 2 | 漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。 斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。 |
一行一行取文件内容
1 2 3 4 | d = open ( '尘曦' , 'r' ,encoding = 'utf8' ) for i in d: print (i.strip()) d.close() |
测试
1 2 3 | D:\python\python.exe D: / untitled / dir / for .py 漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。 斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。 |
原文
1 2 3 | nihao chenxi haha woai ni 漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。 斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。 |
现在光标所在字符下标;一个中文字符是三个
1 2 3 4 | d = open ( '尘曦' , 'r' ,encoding = 'utf8' ) print (d.tell()) print (d.read( 4 )) print (d.tell()) |
测试
1 2 3 4 5 6 | D :\python\python.exe D: / untitled / dir / for .py 0 niha 4 Process finished with exit code 0 |
调整光标位置
1 2 3 4 5 6 7 8 9 | d = open ( '尘曦' , 'r' ,encoding = 'utf8' ) print (d.tell()) #查看当前光标所在位置 print (d.read( 4 )) # 读取四个字符 print (d.tell()) #查看当前光标所在位置 print (d.read( 5 )) #从光标所在的位置向后读取5个字符 print (d.tell()) # 显示光标所在位置 print (d.seek( 0 )) #将光标移至文件收字符 print (d.read( 2 )) #从首字符向后读取2个字符 print (d.tell()) # 查看光标所在位置 |
测试
1 2 3 4 5 6 7 8 9 | D:\python\python.exe D: / untitled / dir / for .py 0 niha 4 o che 9 0 ni 2 |
草都可以从石头缝隙中长出来更可况你呢
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· C#/.NET/.NET Core优秀项目和框架2025年2月简报
· 葡萄城 AI 搜索升级:DeepSeek 加持,客户体验更智能
· 什么是nginx的强缓存和协商缓存
· 一文读懂知识蒸馏