作者:@郑琰
本文转载请注明出处!:https://www.cnblogs.com/zhengyan6/p/16207681.html
下载和解压 Flume
使用 root用户解压 Flume安装包到“/usr/local/src”路径,并修改解压后文件夹名为 flume
| [root@master ~]#tar zxvf /opt/software/apache-flume-1.6.0-bin.tar.gz -C /usr/local/src |
| [root@master ~]#cd /usr/local/src/ |
| [root@master ~]#mv apache-flume-1.6.0-bin/ flume #修改 Flume安装路径文件夹名称 |
| [root@master ~]#chown -R hadoop:hadoop flume/ #修改文件夹归属用户和归属组为 hadoop用户和 hadoop组 |
Flume 组件部署
步骤一:使用 root 用户设置 Flume 环境变量,并使环境变量对所有用户生效
| [root@master ~] |
| |
| |
| export FLUME_HOME=/usr/local/src/flume |
| export PATH=$PATH:$FLUME_HOME/bin |
步骤二:修改 Flume 相应配置文件
| |
| [root@master ~] |
| [hadoop@master ~]$source /etc/profile |
| [hadoop@master ~]$cd /usr/local/src/flume/conf |
| |
| [hadoop@master ~]$cp flume-env.sh.template flume-env.sh |
步骤三:修改并配置 flume-env.sh 文件
| |
| [hadoop@master ~]$ vi /usr/local/src/flume/conf/flume-env.sh |
| |
| export JAVA_HOME=/usr/local/src/jdk |
| |
| |
| [hadoop@master ~]$ flume-ng version |
| Flume 1.6.0 |
| Source code repository: https://git-wip-us.apache.org/repos/asf/flume.git |
| Revision: 2561a23240a71ba20bf288c7c2cda88f443c2080 |
| Compiled by hshreedharan on Mon May 11 11:15:44 PDT 2015 |
| From source with checksum b29e416802ce9ece3269d34233baf43f |
| |
| |
| vim /usr/local/src/hbase/conf/hbase-env.sh |
| 修改: |

使用 Flume 发送和接受信息
通过 Flume将 Web服务器中数据传输到 HDFS中
步骤一:在 Flume 安装目录中创建 simple-hdfs-flume.conf 文件
| [hadoop@master ~]$ cd /usr/local/src/flume/ |
| [hadoop@master ~]$ vi /usr/local/src/flume/simple-hdfs-flume.conf |
| #写入: |
| a1.sources=r1 |
| a1.sinks=k1 |
| a1.channels=c1 |
| a1.sources.r1.type=spooldir |
| a1.sources.r1.spoolDir=/usr/local/src/hadoop/logs/ |
| a1.sources.r1.fileHeader=true |
| a1.sinks.k1.type=hdfs |
| a1.sinks.k1.hdfs.path=hdfs://master:9000/tmp/flume |
| a1.sinks.k1.hdfs.rollsize=1048760 |
| a1.sinks.k1.hdfs.rollCount=0 |
| a1.sinks.k1.hdfs.rollInterval=900 |
| a1.sinks.k1.hdfs.useLocalTimeStamp=true |
| a1.channels.c1.type=file |
| a1.channels.c1.capacity=1000 |
| a1.channels.c1.transactionCapacity=100 |
| a1.sources.r1.channels = c1 |
| a1.sinks.k1.channel = c1 |
| |
| #测试下是否能访问master:9000 |
步骤二:使用 flume-ng agent 命令加载 simple-hdfs-flume.conf 配置信息,启动 flume 传输数据
| [hadoop@master flume] $ flume-ng agent --conf-file simple-hdfs-flume.conf --name a1 |
| |
| |
| |
步骤三:查看 Flume 传输到 HDFS 的文件,若能查看到 HDFS 上/tmp/flume 目录有传输的数据文件,则表示数据传输成功
| [hadoop@master flume] $ hdfs dfs -ls /tmp/flume #查看HDFS文件系统/tmp/f1ume目录下文件 |
| -rw-r |
| -rw-r |
| -rw-r |




【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)