240 发简信
IP属地:上海
  • 120
    kafka生产消费

    produce客户端 produce服务端 consumer客户端 consumer服务端

  • hdfs写之namenode端addBlock实现<五>

    一、流程图 二、NameNodeRpcServer的addBlock实现 1、客户端会通过addBlock方法通过rpc调用namenode方法 addBlock 调用get...

  • hdfs写之DataXceiver线程<四>

    一、流程图 二、DataXceiver接收请求处理数据 1、DataXceiver线程的run方法 DataXceiver继承了Receiver类,调用readOp方法读取客...

  • 120
    hdfs写之DataStreamer守护线程<三>

    一、流程图 client和namenode之前的rpc协议都是ClientProtocol。 locateFollowingBlock主要是通过rpc向namenode分配新...

  • 120
    hdfs写之写数据<二>

    一、写数据流程图 该流程主要是客户端开始写数据,然后把数据切分多个chunk,多个chunk组成一个packet,发送到queue中,等待datanode写数据。 二、客户端...

  • 120
    原创-大数据平台权限设计分享-HDFS目录权限

    权限目标 可通过界面,添加修改分配用户对HDFS目录拥有的权限,HDFS目录权限分为read,write,excute三种权限类型。 用户权限列表管理image.png 添加...

  • 120
    hdfs写之打开文件流<一>

    一、客户端创建写文件的流程图 namenode主要创建客户端RPC请求的准写的文件,namenode会把文件名保存到namespace中,然后返回给客户端HdfsFileSt...

  • 120
    hdfs读之总结<四>

    一、hdfs读取流程图 假设block副本个数3个 客户端发起请求到namenode节点,要求namenode告诉客户端读取的block位置在哪些datanode上,第一次读...

  • hdfs读之socket通讯解析<三>

    一、通讯流程图 二、Sender客户端解析 1、RemoteBlockReader2.newBlockReader()解析 根据block信息向datanode发送请求读取b...

  • 120
    hdfs读之read读取解析<二>

    一、读取block数据方法流转 传输数据是通过scoket建立的,Sender和Receiver,这两个方法都继承了父类DataTransferProtocol。 二、读取方...

  • 120
    hdfs读之block读取解析<一>

    一、hdfs读取流程 先获取文件流FSDataInputStream fsIn = FileSystem.open("path") 然后读取文件内容fsIn.read(buf...