当前位置:首页> 原创动态 >看云行 | 新华智云:在白板上描绘未来媒体

看云行 | 新华智云:在白板上描绘未来媒体

2023-05-10 14:56:27

,欢迎关注、定有收获。


2017年12月4日,蔡名照社长首次提出了“媒体大脑”的概念。12月26日,“媒体大脑”在第五届中国新兴媒体产业融合发展大会上生产了首条MGC(Machine Generated Content,机器生产内容)新闻。


新华智云新媒体VP及2410项目组负责人商艳青为大家介绍“媒体大脑”


点击边框调出视频工具条
   



从那时起,MGC新闻的生产者——新华智云,正式走入大家的视野。


2018年社工作会议召开后,“智能编辑部”、“媒体大脑”等新名词让人更加充满好奇和期待。


社团委组织“看云行”系列参访活动,新华智云北京分部是活动第一站。


 新华智云(北京


 新华智云(杭州)


下面,:



关于“媒体大脑”


“媒体大脑”(Machine Generated Content)将扮演智能时代新闻生产基础设施的角色,是媒体与人工智能相融合的产物。“媒体大脑”通过人工智能技术把记者武装起来,可以大幅提升新闻的生产和传播效率。“媒体大脑”的另外一个重要使命是把记者从简单重复劳动中解放出来,由此记者就可以把精力用在更有价值的地方,写出更有深度、更有温度、更有态度的报道。



“媒体大脑”的8项功能


“媒体大脑”会全方位提升媒体的综合能力。在生产端,“采蜜”技术可以通过音频文件或实时音频流自动转写为文字;人脸核查技术可以从海量的图片、视频素材中精确找到特定人物;“2410”将通过传感器、摄像头接入的数据,实时生成快讯和新闻线索,设计这些产品的目的就是要提高媒体人的工作效率,释放媒体人的生产力。


智能分发、版权监测和用户画像功能将在分发流程上改变媒体人的工作方式。人工智能技术的使用让信息传递的效率提高,使抄袭、洗稿等行为将无所遁形。读者会更容易找到自己需要的信息,他们的建议也会通过更多渠道反馈给媒体,从而达到读编共赢的效果。


智能会话技术和语音合成技术代表着“媒体大脑”在媒体呈现环节上的探索,是“未来融媒体”的新发展趋势,其中语音合成已经在MGC新闻中得到了应用。



2410(智能媒体生产平台)


2410系统目前覆盖了突发事件、可预见性(程序性)新闻、舆情等。突发事件的报道,如地震、火灾、爆炸等,需要遍布各地、全天候运转的各类传感器配合,同时开发相应的算法和模型来识别。可预见性新闻报道,如发布会,可事先让机器准备好相关素材,如时间、地点、人物的基本信息,再通过摄像头、传感器自动采集和提取现场的若干信息和数据,最后形成一条MGC视频新闻。2410智能媒体生产平台可以高效地提供更多MGC,为读者提供有效信息。


2410智能媒体生产平台流程图


关于MGC新闻:


MGC(Machine Generated Content,机器生产内容)概念的提出与UGC、PGC相对应,MGC系统通过人工智能来自动完成线索采集、识别、分析、撰写成文等一系列步骤。其生产过程是:首先通过摄像头、无人机、传感器等设备获取新的视频、数据等多类信息,根据不同的信息种类,经由图像识别、视频识别等技术进行内容理解,这些新理解的内容会被输入作为MGC新闻生产中枢的“媒体大脑”,进行新闻价值的判断,并与其中已有的数据进行关联。通过对这些资料进行语义检索和编辑,就可以智能生产一篇新闻稿件。


MGC新闻并不局限于某一特定形式。在信息采集和处理的过程中,人工智能采集的视频、音频素材,从数据库中找到的关联数据等,会经过视频编辑、语音合成、数据可视化等一系列过程,为文字稿提供图片、视频、数据可视化图表等多类新闻素材,从而使MGC新闻可以通过文字、音频、视频、可视化等多种形式呈现。


由于MGC系统具有数量上的可复制性、获取信息的不间断性等特征,可以预期它在生产信息的数量、速度上都将远胜于人类。虽然人工智能短时间内还无法像人类一样完成报道,但目前MGC内容既可以用作快讯,也可以成为记者进行深度报道的线索,让媒体获取信息的速度和广度都有明显的提升。


了解更多,扫码关注“新华智云”


Q
A
&


看了MGC新闻,觉得机器能做成这个样子是很令人惊讶,但其实和专业记者的报道还是有较大差距的,那么MGC的优势在哪里呢?

在于速度和数量级。在智能和万物结合的这个万物互联时代,我们相信MGC的内容生产规模将是UGC、PGC的三次方,机器最大的优势是可复制性,这意味着在时间、空间、可获取信息三个维度上,机器都会领先于人类,它成稿很快,可以成为第一时间、第一现场的一手快讯和素材,相比UGC,MGC是一个更加全面、结构化的信息来源。这就给记者拓宽了线索的来源,但之后的深度报道、有观点的报道,还是会需要专业的记者来完成。


在MGC新闻中,有一些摘录人物精彩语句的片段,请问人工智能要如何做到这些?

在媒体大脑中有一个研究领域就是内容自动生成摘要,这涉及到自然语言理解(NLP)技术,可以对新闻稿、讲话等内容的具体句子进行分析和选优,最后呈现出一段摘要。这是运用NLP技术进行自然语言处理,并且在海量的数据集上进行训练的结果。


在人工智能业务中,很重要的一点是让业务形成闭环,让人工智能接受反馈,这一点上目前MGC是怎样处理的?

分为两方面。一方面是让编辑来进行干预和规则的调整,直接将反馈输入到机器内。另一方面MGC新闻也会进入分发渠道,这样不同版本的内容就会得到不同的读者反馈,为下一步的改善提供依据。


目前机器合成的语音仍然比较有“机器味”,与人类相比还是存在一定差距?

是这样的,这方面的改进空间还相当可观,也是整个人工智能界聚焦的领域之一。媒体大脑会同步这些先进的技术,让机器语音越来越“有人味”。


目前MGC对多语言的支持怎样?

现在可以做到中英文,但更理想的是让机器去学习英文内容,直接撰写英文稿件,更多语言的支持也在逐渐开发和跟进。


媒体大脑中人脸识别技术与热门的人工智能公司(如商汤科技、Face++)等有什么不同吗?

差异点主要体现在应用场景的不同,新华智云的人脸识别技术用在新闻领域。媒体的需求和安防、验证等场景下的需求有明显区别,新闻人物的影像资料也会更多、更全面,媒体大脑会专注于媒体的需求来构建人脸识别的实际应用。


录音转文字的应用采蜜是怎么达到录音转文字的效果的?是不是有对声音质量、环境有要求?

语音与文字的转换是机器学习领域比较成熟的一项应用,不过目前都对声音的质量、周围的环境有一定的要求。建议在安静环境下使用“采蜜”:范围1米以内,1-2个人对话,麦克风最好对准说话人。


公众号ID

iMedia_Daily

长按识别左侧二维码关注我们哟~

友情链接