ignite 概念补充

ignite 概念补充

        云端负责SIEM(安全信息与事件管理),XDR(extension detection and reponse)除了端点,最起码包含云,威胁情报,网络数据,日志文件,社区数据的检测与响应外,讲求包罗万象。

        windows-tunnel 给予windivert实现的windows数据包转发,实现转发socks5,支持tcp/udp支持远程dns解析。
        JDivertTunnel是一个简单的windows流量重定向到socks5服务器的工具,支持windows7及后续系统,基于windivert及Jdivrt开发。
https://github.com/WeyNiDrop/JDivertTunnel

        Microsoft Defender for Endpoint是一种云交付的全面终结节点安全行解决方案,其中有基于风险的漏洞管理和评估、攻击面减少、基于行为且由云助力的下一代保护、终结点(终端)检测和相应(EDR)、自动调查和修正、托管搜寻服务、丰富的API和统一的安全管理。

具备的功能:
    1.实时发现漏洞和错误配置;
    2.获取专家级的威胁监控和分析;
    3.通过自动化功能迅速完成从警报到大规模修正;
    4.阻止复杂的威胁和恶意软件
    5.通过行为监控检测并相应高级攻击
    6.消除风险并减少攻击面

其他功能:
    跨平台支持,快速评估功能,通过API进行简化和集成,简化终结点安全管理。

边缘计算(Edge AI)
        边缘AI发源于边缘机算。边缘机算也称为边缘处理,是一种将服务器放置在本地设备附近网络技术,这有助于降低系统的处理负载,解决数据传输的延迟问题。这样的处理是在传感器附近或设备产生数据的位置进行的,因此称之为边缘。
        边缘机算的发展意味着边缘人工智能正变得越来月重要。在降低处理延迟和保护数据隐私这方面。
        边缘AI是指在硬件设备上本地处理的AI算法,可以在没有网络连接的情况下处理数据。这意味着可以在无需流式传输或在云端数据存储的情况下进行数据创建等操作。
        因为出现了越来越多的设备树无法依赖云端处理的情况。
        边缘机算可以在云上靠深度学习生成数据,而在数据原点——即设备本身(边缘)执行模型的推断和预测。
        为了实现这些目标,边缘机算可以在云上靠深度学习生成数据,而在数据远点——即设备本身(边缘)执行模型的推断和预测。
        边缘人工智能可以收集和存储物联网产生的大量数据,让使用具有可扩展性的云成为可能。这可以提高数据处理和基础设施的灵活性。
        通过将通常委托给云端的信息处理交给边缘设备,可以实现无传输延迟的实时处理。如果只传输重要信息到云端,可以减少传输数据量,这能将通信终端的风险降到最低。
        边缘AI的市场主要有两个领域:工业机械和消费设备。它在控制和优化设备、自动化重复劳动等领域均有进展。

英特尔OpenVINO工具包
        引用官方得OpenVINO工具包文档:"OpenVINO"工具包是一种综合工具包,用于快速开发可模拟人类视觉得应用程序和解决方案。该工具包基于卷积神经网络(CNN),可在英特尔硬件上扩展CV工作负载,从而最大限度地提高性能。
        支持通过英特尔Movidius VPU在英特尔CPU,英特尔集成显卡,英特尔FPGA,英特尔神经机算棒2和英特尔视觉加速器设计之间进行异构执行。

OpenVINO工具包的主要元素包括:
模型优化器、推理引擎和开放模型动物园(the Open Model Zoo)
        模型优化器采用在Caffe,TensorFlow,MXNet,Kaldi或ONNX框架中预先训练的深度学习机算机视觉模型,并将其转换为OpenVINO中间表示(IR),这是一种简化的模型表示,可使用运行在以下平台上的推理引擎进行模型执行优化,边缘设备,推理引擎使用针对CPU和GPU以及VPU硬件的通用API加载和推断这些IR文件。
        Open Model Zoo提供了免费的预训练模型,可以免费下载,无需先训练自己的模型即可用于加速开发过程,然后需要先使用Model Optimizer将其转换为中间表示形式,然后再进行建模准备与正在考虑的边缘设备上的推理引擎一起使用。
        IR描述了输入模型的结果,借助以下一种或多种技术,该模型已针对边沿推理进行了优化:
  量化,即模型权重和偏差的数值精度降低,
  模型层,即将多个模型层组合成一个层,
  冻结,即删除仅对模型训练有用的元数据和操作(仅在TensorFlow模型的情况下)
        通过在主机上安装OpenVINO,让我们生成YOLOv3-tiny模型的IR。YOLOv3-tiny的网络体系结构针对低性能设备进行了执行优化,以降低预测精度为代价:它仅使用19个卷积层,而不是标准YOLOv3模型的53个卷积层。因此,它比标准YOLOv3模型的执行效率高的多,但与标准YOLOv3模型的51-57%的mAP值相比,其平均精度(mAP)为33.1%的精度要低得多。
        要将YOLOv3-tiny模型转换为IR格式,将在很大程度上遵循OpenVINO指南来转换YOLO模型。

git clone https://github.com/mystic123/tensorflow-yolo-v3.git

猜你喜欢

转载自blog.csdn.net/qq_31932681/article/details/114386418