在人工智能领域,Open AI 的 Sora 已成为游戏规则改变者,以其大规模模型彻底改变了视频生成。 虽然 Open AI 一直在发布各种创新,但 Sora 因其能够制作连贯的 60 秒视频而脱颖而出,这比之前的 3-5 秒输出有了显著飞跃。 这一进步让许多人感到惊讶,并引发了有关 Open AI 未来发展潜力的讨论。
人工智能社区一直对 Sora 的功能感到兴奋,特别是与 Pika 和 Runway 等之前的模型相比。 虽然这些模型仅限于生成 3-5 秒的短视频,但 Sora 凭借其创建流畅、连贯的 60 秒视频的能力提高了标准。 这代表了人工智能视频生成技术的重大飞跃,展示了前所未有的质量和连贯性水平。但是对于我们普通人来讲,我们没有能力去写作详细认真的提示词,不具备艺术家一样的灵魂,所以最后到底怎么融入普通民众的生活,目前无从谈起。
过去,人工智能视频生成模型很难在较长时间内保持连贯性。 扩散模型的使用涉及在生成过程中插入噪声,通常会导致不一致,尤其是沿着对象边缘。 然而,Sora 克服了这些挑战,提供了具有出色稳定性和清晰度的高分辨率 1080P 视频。
Sora的关键创新之一在于超长上下文和超细粒度控制的使用。 通过提供详细而广泛的输入指令,用户可以对生成的内容进行更大的控制,从而产生更加连贯和高质量的视频。 这种控制水平使 Sora 与之前的型号区分开来,并为人工智能生成的内容开辟了新的可能性。
尽管 Sora 的功能令人印象深刻,但要让公众能够使用它仍然面临着挑战。 生成视频的高失败率和成本可能会阻止许多潜在用户。 此外,定价和可用性方面缺乏明确性进一步使其采用变得复杂。 然而,像谷歌和英伟达这样的公司可以利用他们的资源来开发类似的技术,未来有可能超越 Sora。
展望未来,人工智能生成内容的未来取决于几个因素。 公司必须评估制作此类内容的成本效益,并努力改善用户体验。 对于个人创作者来说,掌握制作详细且具体的输入指令的艺术对于充分发挥人工智能生成内容的潜力至关重要。