物联网平台开发源代码(物联网云平台开发实践 pdf)

Mark wiens

发布时间:2022-11-17

物联网平台开发源代码(物联网云平台开发实践 pdf)

 

问题导读

1.本项目包含哪些源码?

2.本文使用了哪些框架?

3.KSQL UDF如何实现?

文中链接查看,可点击:阅读原文

物联网+大数据+机器学习将会是以后的趋势,这里介绍一篇这方面的文章包含源码。

混合机器学习基础架构构建了一个场景,利用Apache Kafka作为可扩展的中枢神经系统。 公共云用于极大规模地训练分析模型(例如,通过Google ML Engine在Google Cloud Platform(GCP)上使用TensorFlow和TPU,预测(即模型推断)在本地Kafka基础设施的执行( 例如,利用Kafka Streams或KSQL进行流分析)。

本文重点介绍内部部署。 创建了一个带有KSQL UDF的Github项目,用于传感器分析。 它利用KSQL的新API功能,使用Java轻松构建UDF / UDAF函数,对传入事件进行连续流处理。

使用案例:Connected Cars - 使用深度学习的实时流分析

从连接设备(本例中的汽车传感器)连续处理数百万个事件:

互联网小常识:网络管理系统一般由管理进程(Manager)、被管对象(MO)、代理进程(Agent)、管理信息库(MIB)和网络管理协议(SNMP和CMIP)五部分组成。

为此构建了不同的分析模型。 他们在公共云上接受TensorFlow,H2O和Google ML Engine的训练。 模型创建不是此示例的重点。 最终模型已经可以投入生产,可以部署用于实时预测。

模型服务可以通过模型server 完成,也可以本地嵌入到流处理应用程序中。 参阅RPC与流处理的权衡,以获得模型部署和....

演示:使用MQTT,Kafka和KSQL在Edge进行模型推理

Github项目:深度学习+KSQL UDF 用于流式异常检测MQTT物联网传感器数据

(下载源码:

ksql-udf-deep-learning-mqtt-iot-master.zip (474.64 KB, 下载次数: 0) )

该项目的重点是通过MQTT将数据提取到Kafka并通过KSQL处理数据:

Confluent MQTT Proxy的一大优势是无需MQTT Broker即可实现物联网方案的简单性。 可以通过MQTT代理将消息直接从MQTT设备转发到Kafka。 这显着降低了工作量和成本。 如果你只是想要在Kafka和MQTT设备之间进行通信,这是一个完美的解决方案。

如果你想看到另一部分(与Elasticsearch / Grafana等接收器应用程序集成),请查看Github项目KSQL for streaming IoT data。 这实现了通过Kafka Connect和Elastic连接器与ElasticSearch和Grafana的集成。(源码下载:链接:https://pan.baidu.com/s/1FCFgAoF9v1ihp9fyqHeKag 密码: 67sz)

KSQL UDF - 源代码

开发UDF非常容易。 只需在UDF类中的一个Java方法中实现该函数:

[Bash shell] 纯文本查看 复制代码

?

1

@Udf(description = "apply analytic model to sensor input") public String anomaly(String sensorinput){ "YOUR LOGIC" }

这里是所有代码:

[Java] 纯文本查看 复制代码

?

01

02

03

04

05

06

07

08

09

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

互联网小常识:网络关键设备选型的基本原则是:a、选择成熟的主流产品,最好是一家厂商的产品。 b、主干设备一定要留有一定的余量,注意系统的可扩展性。c、对于新组建网络一定要在总体规划的基础上选择新技术、新标准与新产品,避免因小失大。

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

package com.github.megachucky.kafka.streams.machinelearning;

import java.util.Arrays;

import hex.genmodel.GenModel;

import hex.genmodel.easy.EasyPredictModelWrapper;

import hex.genmodel.easy.RowData;

import hex.genmodel.easy.exception.PredictException;

import hex.genmodel.easy.prediction.AutoEncoderModelPrediction;

import io.confluent.ksql.function.udf.Udf;

import io.confluent.ksql.function.udf.UdfDescription;

@UdfDescription(name = "anomaly", description ="anomaly detection using deep learning")

public class Anomaly {

// Model built with H2O R API:

// anomaly_model <- h2o.deeplearning(x = names(train_ecg),training_frame =

// train_ecg,activation = "Tanh",autoencoder = TRUE,hidden =

// c(50,20,50),sparse = TRUE,l1 = 1e-4,epochs = 100)

// Name of the generated H2O model

private static String modelClassName = "io.confluent.ksql.function.udf.ml"

+ ".DeepLearning_model_R_1509973865970_1";

@Udf(description = "apply analytic model to sensor input")

public String anomaly(String sensorinput) {

System.out.println("Kai: DL-UDF starting");

GenModel rawModel;

try {

rawModel = (hex.genmodel.GenModel) Class.forName(modelClassName).newInstance();

EasyPredictModelWrapper model = new EasyPredictModelWrapper(rawModel);

// Prepare input sensor data to be in correct data format for the autoencoder model (double[]):

String[] inputStringArray = sensorinput.split("");

double[] doubleValues = Arrays.stream(inputStringArray)

.mapToDouble(Double::parseDouble)

.toArray();

RowData row = new RowData();

int j = 0;

for (String colName : rawModel.getNames()) {

row.put(colName, doubleValues[j]);

j++;

}

AutoEncoderModelPrediction p = model.predictAutoEncoder(row);

// System.out.println("original: " + java.util.Arrays.toString(p.original));

// System.out.println("reconstructedrowData: " + p.reconstructedRowData);

// System.out.println("reconstructed: " + java.util.Arrays.toString(p.reconstructed));

double sum = 0;

for (int i = 0; i < p.original.length; i++) {

sum += (p.original[i] - p.reconstructed[i]) * (p.original[i] - p.reconstructed[i]);

}

// Calculate Mean Square Error => High reconstruction error means anomaly

double mse = sum / p.original.length;

System.out.println("MSE: " + mse);

String mseString = "" + mse;

return (mseString);

} catch (InstantiationException | IllegalAccessException | ClassNotFoundException e) {

System.out.println(e.toString());

} catch (PredictException e) {

System.out.println(e.toString());

}

return null;

}

}

如何使用Apache Kafka和MQTT Proxy运行演示?

执行演示的所有步骤都在Github项目中描述。

你只需安装Confluent Platform,然后按照以下步骤部署UDF,创建MQTT事件并通过KSQL levera处理它们....

这里使用Mosquitto生成MQTT消息。 当然,也可以使用任何其他MQTT客户端。 这是开放和标准化协议的巨大好处。

互联网小常识:通过Telnet配置交换机需要满足的条件是:(1)作为模拟终端的计算机与交换机都必须与网络连通,它们之间能够互相通信(2)计算机必须有交换机的访问权限(3)交换机必须预先配置好设备管理地址(ip、掩码、网关)(4)交换机必须配置好控制远程登录的密码。

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186