布朗气水焊机_水燃料氢氧机_氢氧发生器_氢氧发生器 - 米乐官网-平台官方版|乐备用网址
导航
智能体系架构与芯片的下一个十年 论坛预告

时间: 2024-03-07 00:07:52 |   作者: 制药行业

  2020年6月21-24日,第二届北京智源大会将邀请包括6位图灵奖获得者在内的上百位人工智能领袖,一起回顾过去,展望未来,深入系统探讨“人工智能的下一个十年”。

  本次大会将开设19个专题论坛,主题涵盖人工智能数理基础、自然语言处理、智能体系架构与芯片、人工智能伦理治理与可持续发展、机器学习、智能信息检索与挖掘、认知神经基础、机器感知、决策智能、AI医疗、AI创业、AI交通、AI+大数据+防疫、AI框架、图神经网络、知识智能、强化学习、青年科学家机器学习前沿,以及AI科技女性,遍历人工智能基础研究及创新应用,结合时局解析人工智能最新动态,探索未来发展方向。

  我们将带你走进各个分论坛,领略嘉宾风采、洞悉前沿趋势。今天介绍的是将于6月21日下午举行 的智能体系架构与芯片论坛 。

  中科院计算所研究员、博导,现为中国科学院计算技术研究所所长助理、智能处理器研究中心主任,中国科学院大学岗位教授,教育部高等学校计算机类专业教学指导委员会计算机系统专委会委员。带领团队研制了国际上首个深度学习处理器芯片“寒武纪1号”。他的研究成果已经实现了规模化应用。学术论文多次获得计算机体系结构顶级国际会议最佳论文奖,受到上百个国际知名机构跟踪引用。因此,他被Science杂志刊文评价为深度学习处理器研究的“先驱”和“引领者”。

  曾获国家杰出青年科学基金、中国青年五四奖章、中国青年科技奖、全国创新争先奖、教育部“青年长江学者”、国家自然科学基金委“优秀青年基金”、国家万人计划“青年拔尖人才”,并被《MIT科技评论》评为全球35位杰出青年创新者(2015年度)。 他还是北京智源人工智能研究院智能体系结构与芯片方向首席科学家。

  议题简介:随着近年来在超大规模高性能计算机上解决重要AI应用程序慢慢的变流行 ,如何有效地评测超大规模高性能计算机运行AI领域应用程序的能力,从而更好地指导下一代超级计算机的设计、研发和部署,成为了当前在科学和工程上非常有价值的问题。 当前,传统 HPC Benchmark 领域的若干经典评测标准,如 Linpack 、 HPCC 等主要是针对传统的数值计算应用程序,很难有效评价高性能计算机运行AI应用的计算能力。 而当前面向AI领域的评测程序,如 MLPerf 等,主要是针对小规模系统的评测,并不能对超大规模系统来进行有效评测。 针对以上问题,我们提出了一种以神经网络结构的自动发现与参数调优( AuToML )为基础,计算规模可变的人工智能算力评测方法和评测方法。

  清华大学计算机系教授,主要研究领域为操作系统、程序设计语言与并行计算,国家自然科学基金杰出青年基金获得者。获国家科学技术进步二等奖一次,部级科技一等奖两次。现为中国计算机学会杰出会员和杰出讲者、副秘书长、青年科技论坛荣誉委员;ACM中国理事会主席、ACM中国操作系统分会ChinaSys主席、ACM通讯中文版主编。担任了多个重要学术会议的程序委员会委员,包括PLDI、PPoPP、SC、ASPLOS、CGO、IPDPS、CCGrid、ICPP、APSYS等。

  议题简介:随着深度学习在众多领域的成功应,快速和效的模型训练逐渐重要。为了获得准确率,模型大小和训练数据都益增加,分布式并训练成为不可或缺的技术,其核问题是不同计算设备的通信以及由于计算和通讯性能的差异带来的异构性。当前流的机器学习系统都采中心化和同步的并训练,造成了通讯的瓶颈并容易受异构运环境的影响。针对这样的一个问题,我们提出了有效的去中化分布式训练的系统模块设计法。对同步执,我们利执状态差别和通信图的关系,设计了系统资源控制的同步协议。对异步执行,我们提出了种新的通信原语和有效的避免系统等待的法,基于它们实现的系统有效的消除了通信瓶颈并达到和当前集中式训练相当或更好的性能。

  南加州大学电子工程系助理教授,于2013年获得伊利诺伊大学香槟分校博士学位,并在加州大学伯克利分校从事过博士后研究工作。在并行计算机体系结构的研究成果包括原子块执行的缓存一致性、内存一致性检查、确定性记录和重访的体系结构支持。近年来研究兴趣转向面向特定领域(侧重图计算和机器学习)的计算机系统和体系结构设计,基于非易失性存储器的系统和加速,以及量子计算等。曾荣获首届北美计算机华人学者协会新星奖和NSF CAREER AWARD。在ISCA、ASPLOS、MICRO、HPCA四个主要体系结构会议发表论文37篇,并进入ASPLOS和HPCA的名人堂(Hall of Fame)。

  议题简介:软硬件去耦合是传统计算机系统快速地发展的体系结构基础与设计方法论核心之一。软硬件去耦合使得软件开发(包括各类算法、模型与行业应用开发)可以以独立的、不必顾及硬件底层具体规格的方式来进行,使得各类编程语言能够针对领域需求、灵活而高效的发展,也使得处理器设计可以在确保软件兼容的前提下独立的快速发展。

  在类脑领域,也存在着软硬件去耦合、软硬件协同等多种设计方法论及其方法组合。 如何从传统计算机的发展历史中汲取经验教训,来探索符合类脑计算与神经形态器件特色的设计方法,这对于处于蓬勃发展状态的类脑计算领域是至关重要的。 将从历史发展、现状分析等角度对这一问题进行介绍与探讨。

  清华大学计算机系研究员,博导。主要研究领域为计算机体系结构,包括处理器设计、类脑计算芯片与基础软件、高性能计算等方向;担任多个国际/国内学术会议程序委员会委员及期刊编委;在NATURE、 ASPLOS、MICRO、NIPS、DAC等期刊/会议上发表论文近70篇。是国家科学技术进步二等奖、国家级教学成果二等奖、教育部科学技术进步一等奖获得者。

  议题简介:向类脑智能的神经形态器件与系统研究对于实现复杂、通用AI,提高计算系统的智能与能效水平具备极其重大的学术意义与应用价值,是后摩尔时代突破传统冯诺依曼架构瓶颈、推动半导体技术持续发展的关键技术。本报告将介绍神经元与突触均基于忆阻器的全忆阻神经网络与硬件系统,该系统能够充分的发挥神经形态器件的优势,优化神经网络的智能处理水平与能效,并在多种智能任务中获得演示验证。此外,基于神经形态器件混沌、时域动力学等多重非线性物理性质,能轻松实现基于神经形态器件的新原理神经网络,支撑复杂优化问题的高效求解。

  北京大学微纳电子学研究院研究员,长期从事类脑计算研究工作,迄今共发表Nature Nanotechnology、Nature Electronics、Nature Communications等期刊和会议论文90余篇,Web of Science引用4400余次,H因子为30,2篇入选ESI热点论文,7篇入选ESI高被引论文,另撰写中英文专著5章,受邀做国际会议邀请报告26次,包含主旨(keynote)报告2次。主持国家杰青、重点研发计划、教育基金会青年教师基金、北京智源青年科学家等项目,获科学探索奖、求是杰出青年学者奖、Wiley青年研究者奖、《麻省理工科技评论》中国区35岁以下科学技术创新35人等奖项。现担任Nano Select副主编、《中国科学:信息科学》青年编委、Scientific Reports编委、《Chinese Physics B》客座编辑、《Journal of Semiconductors》客座编辑、中青科协信息与电子专业委员会副秘书长/理事、中青科协提案专门委员会理事、中国电子学会青工委委员。

  议题简介:近年来,基于RRAM等新型非易失性存储的存内计算慢慢的变成了解决冯诺伊曼瓶颈的重要方法。我们提出面向存内计算的自动综合和映射技术。针对RRAM状态逻辑的综合流程,我们第一步探索状态逻辑能带来的理论并行度的提升,并设计时间复杂度渐进最优的基本算术运算;对于复杂应用,我们则设计高面积利用率的自动化综合流程,通过减少原始输入和中间变量带来的面积开销,流程相对已有工作提高33%的面积利用率和1.43倍的吞吐量。针对RRAM模拟计算的综合流程,我们利用二值神经网络存在着大量相同的模式和冗余的零值,通过预计算和模式组合,比原始映射节省了20%左右的面积开销。我们也将探讨混合数字和模拟的存内计算的设计自动化问题。

  北京大学信息科学技术学院长聘副教授、高能效计算与应用中心任副主任。于2005年获得北京大学计算机科学技术系理学学士学位,并分别于2008年和2011年获得美国加州大学洛杉矶校区(UCLA)计算机科学系硕士和博士学位。曾获2013年ACM/SIGDA杰出博士论文奖、2016年CCF-Intel青年学者提升计划奖、以及2017年ASP-DAC十年最具影响力论文奖。目前的研究兴趣包括电子设计自动化、基于FPGA及新型器件的异构计算、以及医学图像分析算法。曾担任 ICCAD 2014-2016、ISPD 2014-2016、ASP-DAC 2013-2015、NanoArch 2013-2014 的技术委员会成员,以及IEEE TCAD、 IEEE TVLSI、ACM TRETS、ACM JETC 等杂志的审稿人。

  议题简介:2019年10月的《经济学人》杂志撰文预测:“开源软件是过去十年来智能手机大发展的先决条件。而像RISC-V这样的开源硬件也许会在未来十年内让别的设备实现类似的扩张。”以RISC-V为代表的开源硬件影响力已经从学术界扩展到社会各界。2020年3月,RISC-V基金会正式公开宣布将基金会总部迁至瑞士,更是广受全球关注。本报告将首先介绍RISC-V与开源处理器生态的发展现状。其次介绍中国科学院大学开展的“一生一芯”计划中5位本科生在指导团队支持下用20人月完成的一款64位RISC-V开源处理器核COOSCA 1.0。基于COOSCA核的SoC于2019年底流片,目前返回样片可加载Linux并运行用户应用,成功实现“一生一芯”计划目标——让本科生带着自己设计的处理器芯片毕业。最后报告将分享COOSCA核开发过程中的经验与教训。

  中科院计算所研究员,博士生导师,先进计算机系统研究中心副主任,智源研究员。研究方向主要是计算机体系结构, 目前正在开展高效能数据中心设计与优化技术方面的研究。博士期间带领小组设计与实现了软硬件结合的计算机访存监控HMTT系统,为十几个国内外大学研究机构与公司可以提供访存Trace数据。2010年到2012年在普林斯顿大学李凯教授小组开展博士后研究,负责开发维护PARSEC多核基准测试集,并发布PARSEC 3.0版本。包云岗博士在国际顶级计算机系统会议期刊(如ASPLOS/ISCA/HPCA/Sigmetrics等)发表了一系列论文,曾两次获计算所优秀论文一等奖,获2013年”CCF-Intel青年学者提升计划”奖。

  议题简介:AI有非常多样化的应用,例如语音,图像和自然语言处理,因此我们应该设计足够灵活的AI处理器来计算多样化的应用。百度昆仑是百度设计的第一款AI处理器,基于XPU架构(百度于2017年在HotChips会议中发表),采用14nm工艺实现,内存带宽512GB/s, 计算能力达到260Tops。百度昆仑在多种实际的模型中取得了非常好的性能,例如Bert、Transformer、YoloV3和Resnet50上,比T4 GPU有1.5x~2.0x的性能提升。目前百度昆仑已经在百度内部业务大规模应用,也在外部客户上得到了规模推广。本讲座讲给大家介绍昆仑的技术和应用。

  百度智能芯片总经理,目前负责百度昆仑芯片架构设计。在计算机体系结构和系统领域有多年的技术积累,在ASPLOS 2014、HotChips 2014/2016/2017/2020等顶级会议上发表多篇论文。