2019 WAIC:雪湖科技发布基于阿里云FPGA云的广告推荐算法加速器(极客公园报道)

(原载于极客公园

 

       8月29日,2019世界人工智能大会在上海正式拉开帷幕,本届大会以“智联世界 无限可能”为主题,强调智能连接世界,已成为当今AI发展的大背景。继在CES Asia发布YoloV3 tiny图像检测神经网络加速器后,雪湖科技本次全新发布CTR预估模型之Wide and Deep算法推荐系统,这一系统部署于FPGA云服务器,吞吐量可以达到CPU服务器的3~5倍,旨在提高互联网广告及内容推荐效率,给予互联网公司商业化新的降本增益空间。

 

 

       自互联网时代走向人工智能时代,算法基因突出的互联网企业受到越来越多的关注。尤其在近几年,以字节跳动为代表的算法驱动型的互联网产品网罗了大量用户,一跃成为国民级APP,并凭借出色的信息流广告吸金无数,成为了各大广告主最为青睐的投放平台。

 

       然而,不论是BAT,还是新兴的TMD(字节跳动、美团、滴滴)等互联网小巨头公司,其程序化广告售价都不可与海外的Facebook、Google相提并论。高售价自然与高转化率相挂钩,也就与内容、广告算法推荐的准确率呈正向关联,有数据显示,国内互联网公司的广告推荐CTR值距离Facebook等公司仍有一定差距,此外,还有大量公司在算法推荐方面布局甚少,或是处于刚起步的阶段。

 

       昂贵且费时费力,这是在筹建算法推荐系统时,摆在所有公司眼前的难题。即使不考虑招募算法工程师、搭建团队的人力成本,仅就短则一年的框架部署时长而言,多数非技术起家的中型公司都难下决定自建团队。再则,这是一项耗资巨大的工程,目前,多数公司通过CPU云服务器部署推荐系统类算法,但性能不够理想。

 

       雪湖科技FPGA开发团队把以Wide and Deep为基础网络的模型移植到阿里云FPGA服务器F3上,用户可以通过镜像文件部署,模型精度损失可控制在千分之一以内。得益于阿里云FPGA云得天独厚的高速度、低时延和弹性部署的优势,相较于CPU服务器,雪湖的FPGA加速器把吞吐量提高了3~5倍,加上功耗更低,其TOC(总体拥有成本)是CPU云的5倍以上。且雪湖FPGA加速器拥有灵活性,当模型更新时,通过专有工具可直接载入模型参数,可做到一键式更新模型。

 

 

       该深度学习加速器,除了可部署于阿里云服务器的标准化IP,亦可支持基于FPGA加速卡的私有云部署。而在阿里云上可以快速进行测试和部署,减少可繁杂的软硬件开发过程看,方便更多的互联网公司用更低成本地尝试拥抱变化,这是奉行最小可行性测试的互联网行业最喜闻乐见的方案。

 

 

       (Wide & Deep模型结构图)有互联网营销分析师表示,建设在深度学习神经网络上的优秀广告推荐系统可以进一步满足人们‘听我想听’还是‘看我想看’、‘买我想买’的‘懒惰’需求,另一维度上,这也让广告主的带货KPI能被更高效的完成。目前,中大型互联网公司在算法推荐上的需求持续增长,雪湖科技推出的推荐系统若能被验证可实现更低成本,更高速度,依然有不小机会能在CPU当道的红海中杀出一条血路。

 

       据了解,雪湖科技是一家专注于人工智能和FPGA应用开发的企业,擅长于在利用FPGA对各类AI算法做硬件加速,可以提供各类基于FPGA的标准神经网络加速器和定制化开发。