亿华联众网络BlackEye视听大模型在北京科博会上演一秒“穿越”!!!
1秒“穿越”,,是一种怎样的体验????
在7月13日-7月16日举行的北京科博会现场,,基于亿华联众网络BlackEye多模态视听大模型的AIGC融合实景扩展技术,,,,帮你实现1秒“穿越”!!!!

(北京市广电局党组书记、、局长王杰群莅临亿华联众网络展位指导)
北京市广电局领导、、、、CCTV-13、、央视新闻客户端都已经来打卡啦!!!!现场还有观众赞不绝口的AIGC视频短片,,,快来一起看看~
01 AIGC融合实景扩展 带你体验1秒“穿越”
亿华联众网络科技的展位,,,,位于北京市广电局主办的“超高清视听科技展”区域。。。现场一个看似简单的空间,,引来现场大朋友、、、、小朋友们排队体验。。
一走进这个空间,,体验者瞬间就来到了一个装有落地窗的写字楼里,,,,窗外还可以看到巍峨的雪山。。转眼间,,体验者又来到了充满书香的书房里,,,,仿佛实现了1秒“穿越”。。。。

现场工作人员介绍,,,,这是基于BlackEye多模态视听大模型的AIGC融合实景扩展技术。。。
基于现场空间环境,,大模型进行了特征提取和信息分析,,然后根据输入的提示词或提示图,,AI扩展出新的图片或者视频。。
令现场观众惊叹的是,,大模型生成的画面与现场场景实现了无缝融合,,,,且能根据直播要求随时切换。。。。

现场工作人员介绍,,,,该技术区别于虚拟演播室蓝绿箱抠像,,可以在实景中进行空间的扩展与融合,,,,打破了演播室空间的限制,,为有限的空间提供了无限的创意可能,,,,真正实现了“小空间、、、大场景”的节目观感。。
02 基于大模型的视频短片 体现出丰富理解力
在亿华联众网络科技展位上,,,,一段表现江南四季之美的视频《江南·忆》,,,,画面精美,,景别丰富,,,引来许多观众的驻足与赞叹。。。
这段视频由BlackEye多模态视听大模型生成,,,不管是远景、、、、近景还是特写,,,都体现出BlackEye对物理世界丰富的理解能力。。。
现场工作人员介绍,,,,BlackEye融合了包括Transformer、、Diffusion等在内的多种深度神经网络组件,,,,深度整合了对文本、、图像、、视频和三维模型等跨模态内容的推理与生成能力,,,,包括文本生成、、、、文生视频、、、、图生视频等生成式算法,,,,以及AI视觉增强、、AI横竖转换、、、、AI智能集锦等分析式算法。。。。

现场这段《江南·忆》视频短片,,便是由生成式算法完成的。。。
现场工作人员介绍,,,,在基于BlackEye的创作平台上,,亿华联众网络科技还实现了“视频文案——分镜脚本——编辑工具”的全流程AI赋能。。。。
目前,,,可以生成品牌宣传、、广告营销、、、文旅推广、、情感关系等多种文案类型。。。待文案确定后,,,可以一键生成分镜脚本,,,,包括场景、、、景别、、、、角度、、、拍摄方式,,等等。。。。最终,,,,导入剪辑工具,,,进一步进行包装制作。。。。
这引起现场不少新媒体从业人员申请试用。。他们认为,,,相比传统视频生成方式,,,,不仅可以大幅节约创作成本,,,还能在文案、、脚本阶段激发创造力,,,,给我们带来更多创作灵感!!
关注亿华联众网络科技
看懂产业最新趋势
获取更多信息与资料,,请点击→ 留言咨询_亿华联众网络科技 (jlifting.net) 我们将在24小时内致电回复


扫码领资料
扫码看视频