
我在一台linux上安装了flink 然后打包上传代码
运行命令/usr/local/flink-1.12.1/bin/flink run -c TestKafka /home/chenhui5/testJoyyKafka-1.0-SNAPSHOT-suniu.jar
然后抱错 The program's entry point class 'TestKafka' was not found in the jar file.
我就一个...

该怎么解决?
前提:producer 按照key 分区,如下图

按照以上代码,相同的key的数据应该进入同一分区。
出现问题:
flink 未按照正确的顺序,消费kafka的相同key数据。
案例:

Java 1.8+
CPU需要支持AVX2指令集
`cat /proc/cpuinfo |grep avx2`
有结果输出表明CPU支持,如果没有支持,建议更换机器,
StarRocks使用向量化技术需要一定的指令集支持才能发...

解析json的时候 用的fastjson映射成java对象 但是有写数据含有多余的“” {} 导致json解析失败 用的flink处理kafka的json埋点数据
有个需求,就是用flink消费kafka的数据。经过一些列的逻辑处理后存入mysql,怎么验证或者说监控存入mysql的数据的正确性呢?有什么方法吗



kafka的这个topic是多分...
麻烦大哥帮我看看

[root@localhost ~]# java -jar bury-point-data-0.0.2-SNAPSHOT-hainiu.jar
Error: Invalid or corrupt jarfile bury-point-data-0.0.2-SNAPSHOT-hainiu.jar

可能是vim /etc/my.cnf 配置文件有问题,按照csdn上的配置了也没啥用

# FLINK
## 1.tableAPI
```java
package com.practice.apitest.tableapi;
import com.practice.apitest.beans.SensorReading;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.datastream.DataStream...
# FinkCDC
## 一、测试程序
> 官方文档: https://github.com/ververica/flink-cdc-connectors
>
> https://ververica.github.io/flink-cdc-connectors/master/
>
> Flink CDC 系列 - 实时抽取 Oracle 数据,排雷和调优实践:
>
> htt...
操作环境:
flink 1.12
kafka 0.10(3个broker)
通过flink-connector-kafka的api连接的kafka,想问下flink连kafka会根据topic的分区数动态确定source并行度么.
##### spark sql 操作mysql
问各位大佬一个问题,在通过spark sql 先删除后插入mysql过程中,造成死锁!有什么解决办法没有啊?代码如下:
```
//先删除表数据,再插入
JdbcUtil.deleteByKey(url, prop, rawTable, "time", month)
dfRawMonthlyActiveUsers.write.m...
这个sql server怎么在hive中实现

目前我们uid,iid都是str类型的 想做一个字典 映射成int类型的类似
uid1: 1
uid2:2
uid:3
这种
hive有实现这种功能的方法吗?
# Mysql
## 1.查看表的创建信息
```sql
-- \G换行
show create table 表名称\G
```
## 2.**MySQL**的编码设置:
2.1查看编码命令
```sql
show variables like 'character_%';
show variables like 'collation_%';
```
2.2修改mysql的数据目录下...
# 存储过程
## 1.**分类**
```mysql
存储过程的参数类型可以是IN、OUT和INOUT
--注意:IN、OUT、INOUT 都可以在一个存储过程中带多个
1、没有参数(无参数无返回)
2、仅仅带 IN 类型(有参数无返回)
3、仅仅带 OUT 类型(无参数有返回)
4、既带 IN...
提交spark代码运行时报错

# 1.用户管理
**登录MySQL服务器**
```sql
mysql –h hostname|hostIP –P port –u username –p DatabaseName –e "SQL语句"
```
## 1.创建用户
```sql
CREATE USER 用户名 [IDENTIFIED BY '密码'][,用户名 [IDENTIFIED BY '密码']];
--CREATE USER 'kangs...
# 服务器优化
## 1.**优化**MySQL的参数
**innodb_buffer_pool_size**
```sql
--表示InnoDB类型的 表 和索引的最大缓存
--它不仅仅缓存 索引数据 ,还会缓存 表的数据 。这个值越大,查询的速度就会越快。这个值太大会影响操作系统的性能。
```...

是跑完第一个注册类之后再跑第二个吗?
还是四个同时跑呀?
# Docker
## 1.Docker安装
docker官网
> https://docs.docker.com/engine/install/centos/
### **1.确定centos版本**
```shell
cat /etc/redhat-release #centos7 或者 8
```
### **2.卸载旧版本**
```shell
yum remove docker \...
需求是传入两个参数(xmltxt,time),按照时间顺序排序 合并xml,获取最完整的一条xml。思路是在map端将两个参数合并,添加到list里。然后reduce阶段获取所有数据再按照时间排序合并。目前在执行 函数内置 merge()方法时出问题。代码如下:
。处理逻辑给的36个并行度因为是往Tidb里面插入数据。 导致最后LAG积压严重。
设了checkpoint exactly once 60s
愁死了
HDFS写数据时,DataNode为什么是串行写,而不是并行写?