图片来源 Midjourney Showcase
近年来,网络短视频逐步取代以报纸杂志为代表的纸媒。以视频、音乐为代表的视频媒体传递成为当下的主流传播媒体。但是你有没有想过,也许你刷到的短视频是AI创作的
AIGC(Artificial Inteligence Generated Content)即人工智能生产的内容。随着AIGC的蓬勃发展,Meta和Google相继推出文本生成视频的黑科技。用户可以根据自身需要输入描绘某个场景的文本信息,即可生成与文字相匹配的短视频,内容生动有趣。
样例网站:https://make-a-video.github.io/
AI除了制作短视频,还能进行作画、作曲、作诗等艺术创作,AIGC如一夜春风般,席卷文化领域。未来,AIGC、NFT和VR/AR或将成为元宇宙和Web3.0的三大基础设施。随着数据积累、算力提升和算法迭代,人工智能在逐步渗透在写作、编曲、绘画和视频制作等创意领域。
Midjourney - Community Showcase
其实一直火爆全球的虚拟人,也是AIGC的作品。例如百度的AI数字人——希加加。不同于传统的数字人,希加加的面部表情、形体表达、语音表述、回答内容、肢体反应、情绪反馈等外在表现和交互内容,都是由AI实时生成的。其互动效果和智能性更高,用户体验感更好。
百度 - AI数字人 希加加
AIGC是以人工智能技术为核心,多项关键技术共同整合加持而成,其中包括多模态交互技术、3D数字人建模、机器翻译、语音识别、自然语言理解等技术能力。AIGC 技术主要涉及两个方面:自然语言处理 和 AIGC 生成算法。
自然语言处理:作为实现人与计算机之间如何通过自然语言进行交互的手段,让机器听懂人的诉求,根据诉求生成符合要求的内容,是AICG的第一步。
AIGC生成算法:目前主流的包括生成对抗网络和扩散模型。扩散模型有潜力成为下一代图像生成模型的代表,它具有高精度、以及可扩展性和并行性等优势,无论是质量还是效率均有所提升,其快速发展成为 AIGC 增长的拐点性因素。
同时,在机器学习的过程中,需要通过大量的训练来实现更准确的结果,目前以英伟达 A100 为主,对于底层算力需求将有飞速增长。决定AIGC创作作品质量的三大核心因素是:生成算法、NLP算法以及高质量的数据。算法的研究需要科研工作者的不懈努力,而高质量的数据需要数据公司的贡献。
由于AIGC算法的本质是基于深度神经网络模型的,对数据量的要求自然也非常高。目前,由于缺乏带有海量、高质量标注信息的数据,成为制约AIGC发展的壁垒,而Magic Data智能化标注平台Annonator将能够更好的助力研究人员。该平台能够实现面向场景的多模态标注,包括语音、视频、文本、3D点云等各类功能。在节省人力物力财力的同时,为构建AIGC领域坚实的数据基石。
Annotator智能化标注平台 SaaS个人版 免费申领通道