专属客服号
微信订阅号
全面提升数据价值
赋能业务提质增效
【产业链图谱 | 人工智能产业链图谱_人工智能产业链全景图】
人工智能芯片的技术研究是基于人工智能系统对芯片技术进行技术改进,近日,美国普林斯顿大学的研究人员推出了新的人工智能芯片,该芯片通过对芯片的数据处理位置进行改进,提高了芯片的数据处理速度,并减少了芯片的功率消耗。
芯片采用了标准的编程语言,在一些对手机的反应速率要求和功率要求较高的应用中,都将发挥自己的产品特色。
针对芯片的技术改进方面,研究人员针对芯片的节能和性能的重要性也发表了自己的看法,研究人员表示,由于现阶段的人工智能程度多搭建在有电池驱动的设备上,所以降低芯片的功耗也是研究中的重要课题,而这项特点也代表了人工智能芯片对可编程语言的需求。
传统的计算机处理方式是,数据存储地址位于内存,中央处理器要先读取内存中的数据才能对数据进行分析,数据的不同地址的读取过程中,即有大量的功率被消耗。而新的芯片的研究方向是通过统一芯片的数据处理地址和数据存储地址,达到降低芯片功耗的需求。
当然,如果要实现这样的研究目的,需要我们对芯片的架构进行改进,才能突破摩尔定律的极限,在这次的研究中,研究人员采用的是电容器器件,电容器器件相对于晶体管,能够提供更密集的计算空间,将电容器与芯片上的静态随机存取存储器(SRAM)的传统单元配对。电容器和SRAM的组合用于对模拟(非数字)域中的数据进行计算。这种内存电路可按照芯片中央处理单元的指令执行计算。
近年来,PC 行业已经开始逐年衰退,智能手机行业也随着市场的逐渐饱和进入瓶颈期。在这种情况下,人工智能无疑是最受媒体和资本热捧的宠儿。
正是因此,国外大厂纷纷推出了自己的人工智能芯片。就目前而言,人工智能芯片主要以 ASIC、FPGA、CPU、GPU、DSP 为主,像寒武纪和地平线就是属于 ASIC,阿尔特拉的人工智能芯片属于 FPGA,英伟达的人工智能芯片属于 GPU,星光智能一号属于 DSP,英特尔的方案属于 CPU。
在这些人工智能芯片中有一个规律,那就是芯片的通用性与用来跑人工智能的性能和功耗成反比。像 CPU 这样的芯片,由于应用的广泛程度,导致这种芯片具有很好的通用性,但在某些特定领域,性能和功耗相对于其他几种芯片都没有啥优势。
将传统的面向数字信号处理的 DSP 处理器架构进行运算器方面的修改之后,也可以用来跑人工智能,而且可以借助现有的成熟技术。不过在应用领域上有一定局限性——可以用于卷积神经网(CNN),但对循环神经网络(RNN)和长短期记忆网络(LSTM)等处理语音和自然语言的网络则无能为力。换言之,就是这种 DSP 主要用于机器视觉领域,但难以应用到语音识别、文本处理和自然语言理解等领域。用 DSP 做人工智能芯片的做法,在人工智能细分市场还是具备一定商业上的潜力的。
当然,提高芯片的性能和功率是发展芯片技术的重要研究课题,但是产业和应用形态仍是当前芯片产业需要明确的问题。
本文由五度数科整理,转载请标明出处,违者必究!
请完善以下信息,我们的顾问会在1个工作日内与您联系,为您安排产品定制服务
评论