本篇文章1428字,读完约4分钟

滤袋 【科技在线】

据北京时间8月8日下午的新闻报道,ibm正在努力使计算机更加智能和人性化。 本周,该公司宣布开发了一种技术,可以解决大量数据,大大缩短得出有用结论的时间。

ibm采用的 深度学习 技术是人工智能(ai)的一个分支,可模仿人脑的从业原理。它也是微软、facebook、亚马逊和谷歌的重大关注焦点。 ibm的目标是将深度学习系统消化数据所需要的时间从数天缩短到数小时。ibm研究所的ibm研究员和系统加速及记忆主管希拉里 亨特(hillery hunter)说,这些改进可以帮助放射学家更快、更准确地找到病变部位,并读取大量医学图像。 到目前为止,深度学习首要是在单一服务器上运行的,因为在不同计算机之间移动大量数据的过程太过多而杂。而且,怎么在多个不同服务器和解决器之间保持数据同步也是一个问题。 ibm在周二的公告中说,已经开发出了能够将这些任务分配到64台服务器的软件,这些服务器总共有256个解决器,可在速度方面取得巨大飞跃。凡是拥有ibm power系统服务器的客户,以及其他想要测试的技术人员,均可获得这项技术。 ibm采用了64个自主开发的power 8服务器,每一个都将通用的英特尔微解决器和英伟达图形解决器连接起来,并采用快速的nvlink连接,以促进两种芯片之间的数据流传输。 在此之上,ibm使用了技术人员所说的集群技术来管理全部这些移动部件。集群技术可在给定服务器的多家解决器和其他63个服务器中的解决器之间充当通信警察。 如果流量管理不正确,一点解决器就会闲置,处于 吃不饱 的状态。各个解决器都有自己的数据集,并且还需要来自其他解决器的数据,以获得更大的图像。亨特解释说,如果解决器不同步,它们就学不到任何东西。 亨特告诉《财富》杂志: 我们的想法是改变你训练深度学习模式的速度,并真正提高你的从业效率。 亨特说,将深度学习从一个带有8个解决器的服务器扩展到64个服务器,各个服务器有8个解决器,可以将性能提高50-60倍。 pund-it企业创始人查尔斯 金(charles king)对ibm的项目印象深刻,他说后者已经找到了一种 扩大 系统的做法,额外增加的解决器能提高性能。 例如,在理论上,将解决器扩容应该获得的性能提升。但实际上,由于多而杂的管理和连接问题,这种效益永远不会发生。 但ibm称,其系统通过由加州大学伯克利分校创建的 咖啡因 深度学习框架,在256个解决器之间实现了95%的扩展效率。之前的记录是由facebook人工智能研究企业创造的,扩展效率达到了89%。 ibm新95%的扩展效率似乎太好了,不可能是真的, 帕特里克 莫海德(patrick moorhead)说,他是德克萨斯州奥斯丁市一家研究企业的总裁和创始人。 ibm表示,在图像识别方面,ibm系统再次采用了 咖啡因 框架,在7个小时内识别了750万张图片,准确率达到了33.8%。微软之前的记录是29.8%,而达到这一准确率花了10天时间。 用外行人的话来讲,ibm声称已经开发出了比现有深度学习技术更快、更的技术。当然,它还需要采用ibm的power系统硬件和集群软件。

除了咖啡因框架外,ibm表示,流行的Googletensorflow框架也可以用这项新技术运行。 海德拉巴表示,ibm利用了高性能计算方面的专业信息,还采用了tensorflow和咖啡因等外部资源,该方法可以更广泛地应用于一系列深度学习APP中

标题:“IBM声称深度学习取得重大突破 大幅降低解决时间”

地址:http://www.tehoop.net/tpyxw/28075.html