Flink实战:写入SSL认证的Kafka并自定义序列化类

微信公众号:大数据开发运维架构

关注可了解更多大数据相关的资讯。问题或建议,请公众号留言;

如果您觉得“大数据开发运维架构”对你有帮助,欢迎转发朋友圈

从微信公众号拷贝过来,格式有些错乱,建议直接去公众号阅读


概述:

上篇文章:Flink实战:写入Kafka自定义序列化类和自定义分区器,里面讲了如何自定义分区和自定义序列化类向Kafka集群写入数据,上一个代码实例中的Kafka集群并没有开启SSL加密认证,Kafka开启SSLr认证的我之前也写了一篇文章:Kafka实战:集群SSL加密认证和配置(最新版kafka-2.4.0),之前对这块东西不是很熟悉的同行,自己去看下我这边文章,里面详细讲了如何开启和配置SSL,这里就不在说了,很多粉丝问我对于SSL加密的Kafka集群如何集成Flink进行消息的写入,我这里我给大家详细讲解下实例代码,今天我这里软件版本Flink1.9.0、Kafka2.4.0,不同版本依赖不太一样,建议自己根据自己的版本参考Flink的官网教程进行修改:

1.上篇文章的代码我没有粘贴我的maven依赖,可能好多人对这个比较晕乎,我这里直接把pom.xml也给你贴出来,里面有冗余依赖你可以自己调试删除一些:

UTF-81.2.171.7.221.9.01.82.11${java.version}${java.version}1.2.5<!--<kafka.version>0.10.1.0</kafka.version>-->2.4.02.7.34.5.2junitjunit4.11testorg.apache.flinkflink-java${flink.version}<!--<scope>provided</scope>-->org.apache.flinkflink-streaming-java_${scala.binary.version}${flink.version}<!--<scope>provided</scope>-->org.scala-langscala-library2.11.8org.apache.kafkakafka-clients${kafka.version}compileorg.apache.flinkflink-connector-kafka_2.111.9.0org.apache.flinkflink-connector-kafka-0.10_2.111.9.0compileorg.apache.flinkflink-hadoop-fs${flink.version}org.apache.hadoophadoop-common${hadoop.version}org.apache.hadoophadoop-hdfs${hadoop.version}org.apache.httpcomponentshttpclient${httpclient.version}org.apache.flinkflink-streaming-java_2.111.9.1compile<!--<dependency>            <groupId>org.apache.hadoop</groupId>            <artifactId>hadoop-client</artifactId>            <version>${hadoop.version}</version>            <exclusions>                <exclusion>                    <groupId>org.slf4j</groupId>                    <artifactId>slf4j-log4j12</artifactId>                </exclusion>            </exclusions>        </dependency>-->

2.自定义序列化类CustomKeyedSerializationSchema,还是上篇文章一样,这里也贴出来吧:

packagecom.hadoop.ljs.flink.utils;importorg.apache.flink.streaming.util.serialization.KeyedSerializationSchema;importjava.util.Map;/***@author: Created By lujisen*@companyChinaUnicom Software JiNan*@date: 2020-02-24 20:57*@version: v1.0*@description: com.hadoop.ljs.flink.utils */publicclassCustomKeyedSerializationSchemaimplementsKeyedSerializationSchema{@Overridepublicbyte[] serializeKey(String s) {/*根据传过来的消息,自定义key*/String[] line=s.split(",");System.out.println("key::::"+line[0]);return("key--"+line[0]).getBytes();    }@Overridepublicbyte[] serializeValue(String s) {/*根据传过来的消息,自定义value*/String[] line=s.split(",");System.out.println("value::::"+line[1]);return("value--"+line[1]).getBytes();    }@OverridepublicStringgetTargetTopic(String topic){/*这里是目标topic,一般不需要操作*/returnnull;    }}

3.主函数测试类:

packagecom.hadoop.ljs.flink.streaming;importcom.hadoop.ljs.flink.utils.CustomKeyedSerializationSchema;importorg.apache.flink.streaming.api.datastream.DataStream;importorg.apache.flink.streaming.api.environment.StreamExecutionEnvironment;importorg.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer;importorg.apache.kafka.clients.CommonClientConfigs;importorg.apache.kafka.clients.producer.ProducerConfig;importorg.apache.kafka.common.config.SslConfigs;importjava.util.Properties;/***@author: Created By lujisen*@companyChinaUnicom Software JiNan*@date: 2020-02-24 21:27*@version: v1.0*@description: com.hadoop.ljs.flink.utils */publicclassFlinkKafkaSSLProducer{publicstaticfinalString topic="topic1";publicstaticfinalString bootstrap_server="salver31.hadoop.unicom:9093,salver32.hadoop.unicom:9093";publicstaticfinalString client_truststore="D:\\kafkaSSL\\client.truststore.jks";publicstaticfinalString client_keystore="D:\\kafkaSSL\\client.keystore.jks";publicstaticfinalString client_ssl_password="123456";publicstaticfinalString hostname="localhost";publicstaticfinalintport=9000;publicstaticvoidmain(String[] args)throwsException{/*获取flink流式计算执行环境*/finalStreamExecutionEnvironment senv = StreamExecutionEnvironment.getExecutionEnvironment();/*从Socket端接收数据*/DataStream dataSource = senv.socketTextStream(hostname, port,"\n");/*下面可以根据自己的需求进行自动的转换*//* SingleOutputStreamOperator<Map<String, String>> messageStream = dataSource.map(new MapFunction<String, Map<String, String>>() {            @Override            public Map<String, String> map(String value) throws Exception {                System.out.println("接收到的数据:"+value);                Map<String, String> message = new HashMap<>();                String[] line = value.split(",");                message.put(line[0], line[1]);                return message;            }        });*//*接收的数据,中间可经过复杂的处理,最后发送到kafka端*/dataSource.addSink(newFlinkKafkaProducer(topic,newCustomKeyedSerializationSchema(), getProducerProperties(),FlinkKafkaProducer.Semantic.EXACTLY_ONCE));/*启动*/senv.execute("FlinkKafkaProducer");    }/*获取Kafka配置*/publicstaticPropertiesgetProducerProperties(){Properties props =newProperties();        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrap_server);//configure the following three settings for SSL Encryptionprops.put(CommonClientConfigs.SECURITY_PROTOCOL_CONFIG,"SSL");        props.put(SslConfigs.SSL_TRUSTSTORE_LOCATION_CONFIG, client_truststore);        props.put(SslConfigs.SSL_TRUSTSTORE_PASSWORD_CONFIG,  client_ssl_password);// configure the following three settings for SSL Authentication        props.put(SslConfigs.SSL_KEYSTORE_LOCATION_CONFIG, client_keystore);        props.put(SslConfigs.SSL_KEYSTORE_PASSWORD_CONFIG, client_ssl_password);        props.put(SslConfigs.SSL_KEY_PASSWORD_CONFIG, client_ssl_password);//这个选项必填,不然报错hostname ...not found,  这里取消主机名校验props.put(SslConfigs.SSL_ENDPOINT_IDENTIFICATION_ALGORITHM_CONFIG,"");props.put(ProducerConfig.ACKS_CONFIG,"all");props.put(ProducerConfig.RETRIES_CONFIG,0);//这里一定要改下序列化key.value类,不然会报错: Can't convert key of class [B to class org.apache.kafka.common.serialization.StringSerializer。。。。。。。。props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.ByteArraySerializer");props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.ByteArraySerializer");/*props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");*/returnprops;    }}

   4.测试验证。我这里从window端socket的9000端口接收数据,发送至kafka2.4.0集群,测试命令:

发送数据window:

nc-lp9000

kafka端接收数据,由于我是通过消费者端看的,所以只能看到value值:

5.至此,Flink连接开启SSL认证Kafka2.4.0集群验证完成。

后面我会继续写两篇相应的文章:

1.如何连接开启Kerberos认证的Kafka集群;

2.如何通过Flink连接开启Kerberos认证的Kafka集群发送消息。

敬请关注!!!

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,457评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,837评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,696评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,183评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,057评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,105评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,520评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,211评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,482评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,574评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,353评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,213评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,576评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,897评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,174评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,489评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,683评论 2 335

推荐阅读更多精彩内容