各有关单位:
为全面贯彻落实党的十九大和习近平总书记关于加强关键核心技术攻关的重要讲话精神,按照省委十二届六次全会和全省科技创新大会部署,加快推进广东省重点领域研发计划组织实施,经前期调研、专家论证,结合省内重大技术和产业需求,形成了2019年度“新一代人工智能”重大专项申报指南的征求意见稿。
为提高项目组织的公平性、科学性和精准性,现将申报指南(征求意见稿)向社会公开征求意见,欢迎国内企事业单位提出修改意见,并积极准备申报。有修改建议和意见的单位,请填写申报指南意见反馈表,以单位名义于2019年7月5日前反馈省科技厅。我厅将会同有关部门、专业机构和领域专家,认真研究各单位反馈意见,修改完善指南并适时向社会发布。征集到的意见将不再一一反馈和回复。
1.广东省重点领域研发计划2019年度“新一代人工智能”重大专项申报指南(征求意见稿)
2.申报指南意见反馈表
附件 1
广东省重点领域研发计划 2019 年度“新一代人工智能”重大专项申报指南
(征求意见稿)
本专项以国家战略和广东省产业发展需求为牵引,围绕人工智能产业发展亟待突破的关键技术
领域,集聚国内优势团队组织技术攻关,力争取得一批标志性成果,在部分关键领域实现科技自
立。2019 年度新一代人工智能专项共设置基础理论研究及验证、关键共性技术研究及应用、关键处
理与感知器件等专题。要求项目须覆盖每个研究方向要求的全部研究内容和考核指标,且成果实施
地点在广东省内。项目实施周期为 3 年。
专题一:基础理论研究及验证
项目 1:面向自主智能体感知与协作的计算架构和验证
(一) 研究内容
针对自主智能体感知与协作的新型深度计算架构开展研究。针对实时感知与识别、自主控制与协作、动态环境下的自适应任务重构等难题,突破实时目标检测算法、多智能体协作、智能计算芯片系统结构设计等关键技术。研究低功耗、强实时的软硬件协同解决方案;研究基于语义地图的情境理解和多智能体协作等核心技术;完成基于认知计算模型的人工智能原型芯片设计,面向多智能协同任务的原理验证系统。可支持智慧物流、智慧社区、智慧安防等领域。
(二) 考核指标
项目中完成的面向自主智能体感知与协作的计算架构研究成果,须以原型智能计算芯片为载体,该芯片其峰值算力不低于12.8TOPs,执行效率不低于 70%,部分网络不低于 80%;单芯片支持不低于 8 路的 1080P@60Hz 目标检测任务;基于该原型芯片构建自主智能体数目≥10 个、种类≥2 类的多智能体协同验证系统;验证系统围绕混合增强智能、机载实时处理、空地联合感知协作、动态环境任务自适应重构等关键技术开展集成验证,达到低能耗、高实时、强适应的要求;项目执行期内在自主智能体领域取得不少于 3 个应用,完成新申请发明专利≥8 项(其中至少包含 1 项国际发明专利),研制并发布实施团体标准 2 项,集成电路保护布图 1 项。
项目 2:基于混合增强智能的平行智能理论研究及验证
(一) 研究内容
本方向是平行智能理论体系下的机器智能进行系统性研究。研究提升机器理解并适应真实世界环境、完成复杂时空关联任务的能力;研究基于认知计算的混合增强智能,探索直觉推理与因果模型、记忆和知识演化的可计算框架;研究人机协同的感知和执行一体化模型、智能计算前移的新型边缘节点等核心技术;构建包含人工系统、计算实验、平行控制与管理等功能的混合增强智能平行智能系统平台;在制造、交通或健康等行业建立验证系统予以验证。
(二) 考核指标
项目须完成人机混合增强智能基础模型与核心技术算法研发不少于 15 个,以上模型和算法能够支持语音、图像、意图理解等多模态人机交互手段,将人机交互、感知和认知计算的运行效率比现有水平提升 30%以上;所构建的平行智能系统平台对典型场景的感知精度超过 95%,实现人工工作量降低 40%以上;项目执行期内完成新申请发明专利≥12 项(其中至少包含 2 项国际发明专利),申请软件著作权 5 项,研制并发布实施团体标准 2 项。项目执行期内在制造、交通或健康等领域完成不少于 3 类应用示范,新增产值和服务收益不低于 5000 万元,
项目 3:面向数据智能标注的弱监督与自学习方法及系统验证
(一) 研究内容
本方向针对大数据智能的关键基础体系进行建设。研究多机构协同的系统性结构化标注策略,结合深度学习算法针对影像数据(如图片、视频)、文本数据(如语音、文字)研究自动生成结构化数据的智能标注系统,开发半监督/无监督学习算法支持下的集数据收集、数据处理和自动标注为一体的智能标注云平台。通过从海量未标注的数据中自动挖掘有价值的目标信息,实现(极)弱监督下的特征与模型学习,并大幅度地提升模型的精简性、通用性和适应性。通过推理、匹配与迭代优化,研究无标注样本下的深度特征预学习;研究结合迁移学习与主动学习的增量学习方法,并通过渐进式模型训练将其应用到实体目标增量标注任务中,通过迭代学习有效地提升模型性能。建立高效通用的数据标签与结构化标注标准体系,并完成标准化的标注数据库建设。
(二) 考核指标
项目完成时,面向影像、文本数据自动标注任务,提出 20 个以上的弱监督与自主学习模型与算法,实现标注准确率不低于92%,对于其中任一个子任务分类的准确率、灵敏度、特异度均不低于 90%。;开发海量数据自动标注系统,建立起包括亿级数量和 PB 级存储的各类影像数据(图片、视频)、文本数据(语音、文字)库。智能标注云平台能同时支持 100 路以上并发数据标注任务的开放服务;大于 100 个类的初始数据标注模型,标注效率提升 50%以上。项目执行期内完成新申请发明专利≥10 项(其中至少包含 2 项国际发明专利),申请软件著作权 5 项,研制并发布实施团体标准 2 项。验证应用需覆盖无人驾驶、智能安防、智慧医疗等领域。
申报要求:项目 1 须企业牵头申报。
支持强度:本专题拟每个项目各支持 1 项。
专题二:关键共性技术研究及应用
项目 1:基于跨媒体感知的人机交互关键技术研究与应用
(一) 研究内容
开展多模态的人机交互技术研究,重点解决以场景感知、语音理解、动作交互为主的人机交互核心问题。研究面向开放环境的自适应场景感知与建模,提升智能系统对多样化场景的适应能力;开展高层语义理解与融合的人机语音交互技术研究,提升语音系统在开放交互场景中的模糊理解与泛化推理能力;研究融合认知理解的高自由度人机动作交互,实现多模态与多样化的人机交互方式;研制面向通用边缘计算的智能实时推理平台,形成端云一体化的多模态人机交互系统,实现感知、理解、交互一体的智能设备;在多模态人机交互上形成核心技术,并在服务、教育、工业等人机交互与机器人方向形成示范性应用。
(二) 考核指标
建立环境自适应的场景感知系统,实现高精度的场景感知和理解,并满足 10 个以上场景的自适应感知需求;完成全双工交互的语音理解系统,中文语音识别准确率超过 90%,中文问答准确率高于 85%;开发完成高自由度的实时动作交互系统,动作交互超过 15 个自由度;构建面向多模态人机交互的端云一体化的实时动作交互平台,其边缘计算满足大于 5 帧/秒的实时处理能力;形成多模态感知与人机动作交互相融合的交互应用超过 3 项,在工业、服务、医疗等智能机器领域应用。项目执行期内完成新申请发明专利≥10 项(其中至少包含 2 项国际发明专利),申请软件著作权 5 项。产品实现销售额>2 亿。
项目 2:工业级多模智能感知系统关键技术与边云协同应用
(一) 研究内容
开展基于先进感知(工业声成像、非接触超声成像)的智能感知认知理论和关键技术研究。研究基于工业声成像的产品或零部件故障辨识和故障定位技术;基于声像的对抗学习、迁移学习和强化学习融合算法,研究基于深度学习的时序/空间/时频多维信息融合推理算法。研究基于超声导波的定位技术,基于机器学习、流形学习、深度学习的多维信号特征提取算法。研究基于自组织神经网络、记忆回放机制的在线增量学习算法,实现基于人机互动的新故障自动标注。建立面向制造感知的可重构异构智能计算边缘节点定制化软硬件协同设计,研究易于高效、灵活的深度神经网络加速单元和信号处理加速单元设计,为多框架视觉计算、深度学习以及信号处理构建易于编程与应用的集成编译开发与运行时管理软件,完成自主边缘智能计算节点构建。建立多模态感知融合云平台并实现多厂区边云部署,建成同类产品在不同区域产线的多模态感知智能学习与计算系统。形成算法、系统与平台的完整软硬件设计与快速的算法模型可迭代设计评估、验证。
(二) 考核指标
项目完成时,需完成基于非接触超声成像及声成像等先进感知的工业智能诊断系统,非接触超声成像系统可实现扫查检测3m/s 以上,工作距离范围 0.35m~2m 时检出点定位精度小于 1cm,成像点间距小于 1mm,故障检出率≥95%。工业声成像的故障、定位感知认知模型 10 种以上,系统可分离故障声源 6 个以上、故障声定位精度±1cm、故障识别 10 种以上、判断时间小于 1s、故障检出率≥99.99%、故障辨识准确率≥95%(包括在线新增故障,背景噪声强度 70db~90db 范围)。需构建易于多模态感知计算的自研算法库,自研管理平台可兼容多种主流计算框架,实现视觉计算、深度学习以及信号处理等算法融合的混合模型压缩、集成仿真与在线评测;为自主硬件设计单元设计定制硬件接口抽象与高层次综合库,完成国产应用处理器+FPGA 的边缘智能节点设计,节点功耗<15W。系统需在 5 个以上不同区域厂区联合调试部署,部署上线软硬件系统不少于 100 套,产线覆盖不少于 80 条,覆盖产线产值不少于 25 亿/年。项目执行期内完成新申请发明专利≥15项(其中至少包含 2 项国际发明专利/PCT 申请),申请软件著作权 5 项。
项目 3:基于端云融合的网联协同控制关键技术研究及应用
(一) 研究内容
面向复杂不确定性网联端云融合模式下的跨域业务协同控制问题,依托国产核心元器件、人工智能算法框架及系统集成开发环境和工具链,开展基于端云融合的智能网联协同控制系统的关键技术研究。包括面向芯片级网联端侧设备数据采集融合的端云协同智能计算模型、低功耗边缘计算网关体系架构、端云融合网联大数据全周期闭环智能管理模型。研究基于边缘计算的复杂不确定性协同控制场景下的自适应多制式网联设备智能管理技术,研制具备低功耗、轻量级人工智能算法边缘执行框架的网关设备,研究支持终端网联节点国产操作系统的自主可控的软件集成开发环境和工具链。研究面向复杂不确定性端云融合模式智能协同控制场景的多模态网联大数据协同融合人工智能共性算法,以及端云融合模式下的跨域业务智能协同联动策略,构建基于芯片级端云融合的智能协同控制系统,并面向城市交通管理、无人驾驶、安全生产应急管理、企业风险预警分析管控等热点的城市大脑协同控制场景建立示范应用。
(二) 考核指标
项目完成时,须形成端云协同智能计算模型和芯片级低功耗边缘计算网联网关体系架构,以及端云融合大数据全周期闭环智能管理模型。须完成边缘计算网关系统开发,该边缘计算网关可支持采用基于 RISC-V 的超低功耗多核并行架构并支持不少于 5种扩展指令集的芯片,支持离线运行卷积神经网络等主流人工智能推理算法,计算速度提升 3 倍,能耗降低 5 倍,芯片级功耗不超过 100mW 的情况下推理计算性能不低于 8GOPs。支持不少于 5 种国产 MCU 或嵌入式处理器,支持 NCNN 和 MNN 两种国内主导的主流神经网络推理算法框架,以及 Yolo V3 等 10 种以上的嵌入式领域常用神经网络类型的模型编译转化。自研形成集成开发环境,性能不低于手写汇编效率的 70%,比开源工具开发效率提升一个数量级,性能提升 2 倍以上,支持不少于两种的主流开源操作系统。支持 100 万级边缘节点在线智能协同管理,以及不少于 10 种制式通信协议、不少于 5 类多属性异构数据预处理。须形成基于芯片级端云融合的智能协同控制系统,支持 PB 级数据处理能力,并面向交通管控、无人驾驶、安全生产等复杂不确定性跨域业务场景,提升总体协调控制效率 20%以上。项目执行期内完成申请/授权发明专利≥15 件,申请软件著作权≥20 项,提交国际国内标准/行业标准草案≥1 项。项目实施三年内相关产品与服务累计涉及用户规模(企业/个人)到达 100 万级,直接经济效益≥1 亿。
项目 4:基于预测性决策的智能运维基础模型研发与应用
(一) 研究内容
研究面向跨领域制造的预测性决策控制模型及基础算法库。研究支撑加工过程产品测量与和面向过程的误差源识别算法,构建基于制造质量预测虚实一体可拓模型;研究支撑高维度性能衰退指标提取的高稳定性和敏感性算法;研究根据特征数据库和运行数据库构建设备健康混合模型,研究支持模型重合度评估系统或其部件健康度的算法;研究设备性能退化程度的算法及反馈补偿控制技术,研发软硬件协同计算系统。研究支撑高速在线动态补偿智能决策模型算法。
(二) 考核指标
在数据获取、分析、应用中完成不少于 5 个面向智能运维的预测性决策控制模型,模型可实现跨时空的数据处理决策应用。智能运维模型至少可以在 5 个不同行业落地应用。可连接运行设备不少于 100000 台,实现人工智能维护算法稳定性边界差异指标<5%,误判率<20%,实现早于基准的预测预报。针对典型跨行业柔性件产品或部件,虚实一体模型可减少停机时间,实现装备运行持续时间在原基础上提高 5%,柔性件核心加工部件实际使用时间提高 1 倍,原材料使用率比在项目实施前提升 5%,覆盖产能总体良率提升 1.5%以上。项目完成时,基于上述创新成果完成在不同行业柔性件制造的 6 家以上企业形成智能化示范应用,直接关联的制造规模不低于 20 亿/年。申请核心技术发明专利≥10件,申请国际发明专利≥2 件。
申报要求:本专题各项目均须企业牵头申报。
支持强度:本专题拟每个项目各支持 1 项。
专题三:关键处理与感知器件
项目 1:可敏捷定制的智能视觉处理器及系统应用
(一) 研究内容
研究面向智能视觉应用的可灵活调整的处理器体系架构和部署工具,解决现有深度学习处理器的固定体系结构与灵活的应用数据流的矛盾,针对不同应用场景中的深度学习算法,研究芯片在算法特定的体系结构中的配置方法,研究处理器在稠密网络与稀疏网络间切换模式,研究处理器动态调整数据流和数据位宽的方法。研究面向智能视觉的神经网络模型压缩技术,制定统一的网络压缩标准。研究高保真度光感成像技术、超大图像数据的快速压缩与传输技术、亚像素级超高清图像特征提取、分割、匹配与识别技术。研究基于云-边缘协同精密制造类缺陷高速高精度在线检测技术。基于该可敏捷定制视觉处理器,在电子电路、半导体晶圆、电子信息等领域开展微纳级缺陷高精度智能检测云平台建设。
(二) 考核指标
项目完成时,实现智能视觉终端 ASIC 芯片流片,在 65nm制程下,最高功耗控制在 2W 以内,峰值 8bit 定点最高性能达到10TOPS 和最高能效达到 5TOPs/W 量级。芯片可支持不同数据位宽 (4, 8, 16, 32)的神经网络, 卷积层达到 75%以上平均资源利用率,芯片具备可以灵活地配置成不同网络层和面向不同场景能力。基于该可敏捷定制视觉处理器开发的微纳级产品缺陷检测“端—云系统”,最小检测缺陷<2 微米,最小检测线宽距<8 微米,缺陷检出率>99%,建成的缺陷特征库样本量不低于 100 万,该系统需部署在不少于 5 家半导体、电子电路、电子信息龙头企业中实现应用,直接经济效益≥1 亿。项目执行期间,申请发明专利10 项,研制并发布实施团体标准 2 项。
项目 2:高性能 TOF 三维感知器件研发及视觉引导自主智能系统应用
(一) 研究内容
开展高性能 TOF 图像传感器及其 3D 传感器关键技术研究及芯片开发与应用。研发高感光度、高量子效率、低暗电流噪声且体积小的背照式(BSI)iTOF 像素单元及其高分辨率图像传感器芯片;研发高速高精度低功耗 ADC 及其读出电路;研究基于面阵激光器及光学器件组成的激光发射模组及其高频调制驱动电路。基于项目开发的 TOF 感知器件,研究 3D 视觉引导的自主智能系统,研究复杂环境下对操作对象快速三维感知能力,重构交互场景和操作对象三维模型,完成自主智能系统在复杂环境约束下运动控制,研究用于精准交互和灵巧操作快速估计的深度网络模型应具备防备对抗攻击的鲁棒性。
(二) 考核指标
项目完成时,研发出工业级 TOF 3D 传感器模组,研发采用 BSI 和 stacking 工艺的 Si 基 TOF 图像传感器,像素大小不超过 5um x 5um,使 940nm 的量子效率至少达到 35%,像素内的光电子传输<1ns;3D 传感器分辨率可达到 VGA,帧速可达到 150fps,对角 FOV 大于 80°,近距离测量相对精度不超过 2mm@0.5m,远距离测量相对精度不超过 1%@20m;TOF 器件应用于三维视觉引导,可重构场景和交互模型,建立场景/物体类别不少于 100个,主动抓取成功率不低于 90%,以重构和虚拟场景训练所得模型用于真实抓取的迁移学习,主动抓取成功率不低于 80%。项目执行期内完成申请/授权发明专利≥15 件,申请软件著作权≥5 项。实现在工业制造、安防、危险品处理、物流、数据中心等至少三个行业的示范应用,TOF 器件直接经济效益≥1 亿,视觉主动引导智能系统直接经济效益≥1 亿。
申报要求:本专题各项目均须企业牵头申报。
支持强度:本专题拟每个项目各支持 1 项。