大家好,我是躬行者,一位探索AI并致力于将AI应用到教育领域的科学老师。持续分享AI+教育的实操案例,让老师和家长在实际教学中真正用起来!
我要直出7张全景图,鱼眼镜头,360全景,按顺序展示从力学展厅的门口到几个展品的画面,用来制作一镜到底的VR穿梭视频,展厅包括重力、浮力、作用力与反作用力、摩擦力等,展示的都是中国古代对力的研究成就,最后一幅画面是在建造故宫,一大群人拉巨大青石的画面,画面中有少许参观的人,有连廊,有展品,请你分析这个视频的逻辑呈现以及分镜画面,给出每个分镜的提示词,要求:图片比例16:9,真实风格,画面真实,画质清晰,突出细节
发出去之后,它会生成7张分镜,分别对应不同场景。

生成后检查一遍,不满足需求的重新生成。比如我有一张图是”运石头”的场景,但它生成的是室内画面,不符合需求,让它重新生成了。

第二步:生成视频用即梦的”智能多帧”功能。选好图片之后,每两张图片之间的运镜需要写提示词,这是整个视频效果最关键的部分,写不好视频就会很差。

我第一遍是让即梦直接给运镜建议,效果不好。

第二遍改用豆包来生成过渡提示词——把所有图片发给豆包,告诉它需求,它给出的过渡描述更详细,实际效果也好很多。

拿到提示词之后,复制到即梦”智能多帧”里,再人工检查一遍:从第一个镜头穿梭到下一个镜头,是从哪里穿过去的,是不是你想要的效果。写好了,运镜基本上指哪打哪。每个运镜设置时长:想慢就设长一点,想快就设短一点,这样能做出节奏感。设置好之后点击生成,等视频出来。

第三步:优化调整做好之后,哪里不满意可以直接在里面进行片段编辑:
-
运镜不满意:重新设置这个片段的运镜,修改提示词 -
满意的镜头:锁定运镜,锁定后该片段不会被调整,也不会消耗积分

第四步:剪辑配音智能多帧不支持音画同出,视频没有声音,需要到剪映里配音。

额外的小实验做完主视频之后,我还做了一个两个分镜的短视频,展示古人用”泼水成冰”减小摩擦力的智慧。对比了即梦、豆包、Veo几个视频模型,最终还是即梦Agent的效果最好。
目前唯一的问题,就是慢。Seedance 2.0出来之后太火爆,即梦生成视频一直在排队,等待时间比较长。(昨天出个图片,等的花都谢了都没出来,一度怀疑是不是服务器出问题了,最后还是用豆包做的)
以上就是用即梦制作VR视频的完整流程。核心就两点:鱼眼镜头的分镜图,加上用豆包生成运镜提示词。欢迎在评论区聊聊你们做VR视频的经验,或者有更好的运镜提示词写法,也可以分享出来。如果你对AI赋能教育感兴趣,也欢迎加入交流群一起学习讨论。

小报童:小报童是腾讯的付费专栏,打通微信。我在小报童开了一个专栏,叫《AI赋能教育实践案例及实操方法100例》,把我所有试过的好法子、踩过的坑,都整理成了能直接上手的教程放了进去,包含了基础技能、教学应用、教学管理、课堂互动等领域(目前更新了20多篇,持续更新中……)。专栏原定价49元,现在给较早支持我的粉丝朋友们一个“优惠价”,限时19.9元(满500人涨价至29.9元),就当交个朋友。现在已有四百多位老师订阅。如果你觉得这些内容对你有帮助,也欢迎你来看看。扫描下图中的二维码即可享受优惠价,购买成功后记得添加我为好友哦,送你两大福利:价值199的DeepSeek教师资源和我实践总结的课程开发全流程提示词。

如果觉得文章有帮助,就点个免费的赞、在看吧。不想错过我的每一篇干货分享,可以点击公众号主页右上角的三个点,选择“设为星标”就OK了😄。

科学老师学AI

