什么是微型AI?
微型AI集成了低功耗、小体积的NPU和MCU,适应市场上各种主流3D传感器。并支持结构光、ToF、双目立体视觉等三种主流3D传感技术,满足语音、图像等识别需求。
发布日期:2022年9月21日
微型AI的发展:
虽然人工智能带来了巨大的技术创新,但问题是:为了构建更强大的算法,研究人员正在使用越来越多的数据和计算能力,并依赖于集中的云服务。它不仅会产生惊人的碳排放,还会限制人工智能应用的速度和隐私。
模型越复杂,参数数量越多,推理精度越高。因此,需要极高性能的计算设备来辅助训练和推理的计算。因此,如果要将AI应用放在计算能力低、内存少的mcu上,只能选择较小的AI应用或较小的机器学习算法,甚至是超微型深度学习模型进行推断。微型ML.缩小现有的深度学习模型,而不失去它们的能力。与此同时,新一代专用人工智能芯片有望在更紧凑的物理空间中容纳更多的计算能力,并以更少的能源训练和运行人工智能。
什么是微型AI?
“微型人工智能”是指利用压缩算法最小化大量数据和计算能力的人工智能与ML结合的新模型。微型AI是机器学习中的一个新领域,用来缩小人工智能算法的规模,特别是那些迎合语音或语音识别的算法。它还能减少碳排放。
微型AI或微型ML的组件是什么?
- 小资料:
研究人员在机器学习中通过蒸馏压缩转换的大数据被称为小数据。小数据的使用等同于更智能的数据使用,通过网络修剪压缩大数据是数据转换(从大数据到小数据)的固有部分。- 通过代理建模等技术减少数据。
- 选择数据源。
- 无监督学习方法。
- 压缩策略,如网络修剪。
- AI-assisted数据处理。
- 小的硬件:
由于技术的进步,微型人工智能可以帮助开发人员生产微型硬件防火墙和路由器。即使在旅行时也要确保设备的安全。- 新架构。
- 3D集成系统等新结构。
- 新材料。
- 新包装解决方案。
- 微小的算法:
小算法或小加密算法是一种分组密码,其优点在于简单和可实现。微型算法通常只需要几行代码就能提供所需的结果。- 新的边缘学习方法。
- 替代ANN架构。
- 传感器融合策略和GPU编程语言。
- 自适应推理技术。
- 转移学习方法。
为什么你需要微型AI?
训练一个复杂的AI模型需要大量的努力,因为AI的采用跨越多个领域。高效和绿色技术很重要。GPU(图形处理器)是产生热量的贡献者。由于二氧化碳的排放,帮助翻译、写作、语音和语音识别的新人工智能模型产生了负面影响。
为了实现人工智能模型的最大精度,开发人员要负责产生大约700-1400磅的二氧化碳。大规模的自然语言处理实验正在对环境造成严重破坏。BERT是一个基于transformer的机器学习模型,它帮助谷歌处理会话查询,生成约1400磅二氧化碳,这是迄今为止最大的碳排放AI模型。因此,微人工智能迫切需要以各种可能的方式减少稀释环境的碳排放。
微型人工智能的应用是什么?
- 财务:
许多投资银行正在利用人工智能进行数据收集和预测分析。微型AI可以帮助金融机构将大型数据集转化为更小的数据集,从而简化预测分析的过程。 - 教学领域:
基于简单ML算法的设备有助于减轻教师的工作量。VR头盔也被广泛使用,为学生提供了丰富的体验。 - 制造:
随着技术的进步,机器人将与人类合作,以减轻人类的工作量。Tiny ML可以通过分析传感器数据帮助公司。 - 医疗保险:
由于我们收集数据并将其转化为可操作的见解的能力不断提高,医疗保健有望实现个性化医疗。在基因组学方面,数据使用、算法和硬件的改进会带来更快的结果。连接的健康解决方案可通过可穿戴、可植入、可摄入或非接触技术轻松收集医疗级数据,用于临床研究或持续监测。使用人工智能为患者提供个性化治疗。 - 物流:
微型人工智能在自动驾驶和联网汽车上有更多的应用,例如:为了提高安全性,驾驶员的健康状况将通过座位上的电容传感器和仪表板上的雷达系统持续检测。借助手势识别技术,只需轻轻一挥手腕就能控制车内娱乐系统。通过协同传感器融合增强洞察力对于依赖多个传感器获取周围环境完整图像的自动驾驶汽车至关重要。
微型AI或微型ML的优点:
- 节能:
一个人工智能模型排放284吨二氧化碳,是平均成本生命周期排放量的5倍。微型人工智能产生的碳排放量最小,因此不会导致全球变暖。微型BERT是BERT的节能模型,比原来的BERT小7.5倍。它的性能甚至比谷歌的主要BERT模型高出96%。 - 成本效益:
人工智能模型的成本非常高。这些模型要花很多钱来确保最大的准确性。与大预算的语音助手相比,微型人工智能模型便宜。 - 快速:
与传统的AI模型相比,Tiny AI不仅节能、便宜,而且速度更快。与BERT的原始模型相比,Tiny BERT的总体速度快9.4倍。微型AI是人工智能的未来。它节能、经济、快捷。ML在很多地方都有使用。每个应用程序都有机器学习在某个地方发生。深度学习可以通过简单的微小算法实现高能源效率。语音接口有唤醒词系统,用于激活语音助手的检测任务。以往的语音助手系统都是在大型数据集上开发的,而最近开发的高速识别系统可以在Pixel手机上本机运行,这对小型ML研究人员来说是一个很好的工具和突破。
2022年9月21日发布
来源:analyticssteps