利用AI大模型实现个性化视频配音

打造个性化AI视频配音

image

  最近,我萌生了拍摄短视频的念头,希望通过这个平台与大家分享一些AI技术的实际应用。

  然而,在准备过程中,我遇到了一个难题——配音。

  家里的环境嘈杂,收音设备也不够专业,这让在录制配音时感到非常难受。

  一开始,我考虑使用机器配音来解决这个问题。然而,当我试听了一些机器音色后,发现它们的机器感太重,完全不像人类的声音。

  这种效果无法满足我对配音的幻想,让我感到非常失望。我甚至一度想要放弃这个想法。

  然而,就在我准备放弃的时候,

  突然想到,既然AI大模型支持语音识别,那肯定也有语音合成的模型吧。

  于是,我开始在网上搜索相关的信息,最终在阿里云百炼平台上找到了

  通义千问-语音合成CosyVoice大模型。

image

  经过试听,发现多个音色都符合我的要求,完全可以作为视频的配音。

  这让我非常兴奋,终于找到了解决配音问题的方法。

  经过多次试听,最终选择了“龙小淳”作为视频的音色,因为它听起来既自然又亲切,非常适合我的短视频风格。

image

  在选择好音色后,我准备根据文本生成配音。最开始,我想到用百炼平台提供的“自定义文本试听”功能来生成音频文件。然而,我发现这个功能有一个很大的限制——它限制了生成的字数,无法满足中长视频的要求。

  这让我非常沮丧,开始寻找其他方法。

  就在我陷入困境的时候,突然想到可以用API来生成音频

  这样就不会有字数限制了。说干就干,我打开VSCode,开始写一段Python代码来生成音频。

  在编写代码的过程中,遇到了一些问题,通过查阅相关文档和搜索网上的解决方案,成功地解决了这些问题。

  最终,我完成了视频的配音,效果非常满意。

  通过这次经历,深刻体会到了AI技术的强大和便捷。不仅解决了配音问题,还让我学到了很多新的知识和技能。

  我相信,在未来的日子里,我会继续探索和应用AI技术,为大家带来更多有趣和有价值的内容。

  ‍

  附代码和本文章的音频

# coding=utf-8
import dashscope
from dashscope.audio.tts_v2 import *
# 将your-dashscope-api-key替换成您自己的API-KEY
dashscope.api_key = "your-dashscope-api-key"
# 语音模型
model = "cosyvoice-v1"
# 音色
voice = "longxiaochun"
# 初始化
synthesizer = SpeechSynthesizer(model=model, voice=voice)
# 读取需要合成语音的文本文件
with open("1.txt", 'r', encoding='utf-8') as f:
text_content = f.read()
# 开始合成语音
audio = synthesizer.call(text_content)
# 打印请求ID
print('requestId: ', synthesizer.get_last_request_id())
# 保存合成的语音到 合成结果.mp3 文件
with open('合成结果.mp3', 'wb') as f:
f.write(audio)

  最后 欢迎关注公众号【AI技术开发者】

image

posted @   润雨  阅读(41)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· 展开说说关于C#中ORM框架的用法!
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
点击右上角即可分享
微信分享提示