持续发掘通用人工智能的可自主演化
发布时间:2023-06-24 11:30:41 所属栏目:动态 来源:网络
导读: “‘紫东太初’能够以中国国画的形式在现场生成一张竹林图吗?”一位观众以电脑的方式提出了自己的问题。
几秒钟后,对话框里开始现场绘制一幅竹林水墨画
几秒钟后,对话框里开始现场绘制一幅竹林水墨画
“‘紫东太初’能够以中国国画的形式在现场生成一张竹林图吗?”一位观众以电脑的方式提出了自己的问题。 几秒钟后,对话框里开始现场绘制一幅竹林水墨画,引来热烈掌声。 在上海举行的人工智能框架生态峰会上的一幕。会上,中国科学院自动化研究所发布了全模态大模型“紫东太初”2.0。 除了支持图像生成,“紫东太初”2.0还支持多轮问答、文本创作、3D理解、信号分析等跨模态任务,不仅可以透过《月光曲》畅谈贝多芬的故事,也可以在三维场景里实现精准定位,还能够通过图像与声音的结合完成场景分析。 升级打造的“紫东太初”2.0版本,是以中科院自动化研究所自研算法为核心,以升腾AI及昇思MindSpore AI框架为基础,依托武汉人工智能计算中心算力支持,着力打造的全栈国产化通用人工智能底座。全新的版本突破了认知增强的多模态关联等关键技术,具备全模态理解能力、生成能力和关联能力。“紫东太初”2.0的开发,是对通用人工智能的又一次探索。 人类在认知世界时,往往同时涉及语音、图像、文字等信息。机器需要实现更高水平的智能,就需要像人一样,发展贯通图、文、音等更多模态的大模型。2021年9月,中科院自动化研究所成功打造“紫东太初”1.0多模态大模型,助推人工智能从“一专一能”迈向“多专多能”,在发展通用人工智能的道路上迈出坚实的一步。 迈入数字经济时代,数据的范畴不断拓宽,不仅包含人类自身产生的语音、图像、文字等数据,还有机器产生的大量结构化和非结构化数据。针对新需求与新趋势,“紫东太初”2.0在语音、图像和文本之外,加入了视频、传感信号、3D点云等更多模态,从技术架构上实现了结构化和非结构化数据的全模态开放式接入;突破了能对信息进行充分理解和灵活生成的多模态分组认知编解码技术,基于能融合人工智能算法多个任务的认知模型增强自然语言处理的多模态关联技术等,基于大模型多模态语音识别的认知能力大幅提升。 “紫东太初”2.0可以理解三维场景、传感信号等数字物联时代的重要信息,完成音乐、图片和视频等数据之间的跨模态对齐,能够处理音乐视频分析、三维导航等多模态关联应用需求,并可实现音乐、视频等多模态内容理解和生成。从1.0到2.0,“紫东太初”大模型打通了感知、认知乃至决策的交互屏障,使人工智能进一步感知世界、认知世界,从而延伸出更加强大的通用能力。 目前,“紫东太初”大模型已展现出广阔的产业应用前景,在神经外科手术导航、短视频内容审核、法律咨询、医疗多模态鉴别诊断、交通违规图像研读等领域开始了一系列引领性、示范性应用。 该研究所所长徐波表示,他们以“紫东太初”大模型为基础,持续探索与类脑智能、博弈智能等技术路径的相互融合,最终实现可自主进化的通用人工智能,并将探索在更多领域发挥其赋能价值,为促进我国数字经济快速发展贡献力量。“我们希望通过这次合作,能够让人工智能技术更好地服务于各行各业,让人工智能技术真正成为推动社会进步的重要力量。” (编辑:成都站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
推荐文章
站长推荐