如何在Pytube中组合音频和视频?
我正在尝试编写代码以使用Python 3.6上的Pytube下载YouTube视频.但是,对于大多数视频,渐进下载(以同一文件的音频和视频)格式仅可提供360p.因此,我想单独下载音频和视频文件并将其组合.我可以下载音频和视频文件.如何将两个文件组合在一起? 解决方案 基本上,我找不到任何方法可以在Pytube中使用音频和视频,但是您可以使用ffmpeg进行序曲. 首先您必须安装ffmpeg ffmpeg Windows 的安装指南 对于Ubuntu只是sudo apt install ffmpeg 添加依赖项ffmpeg-python ffmpeg> 的Python包装器 pip install ffmpeg-python 现在我们准备使用此代码段 import ffmpeg video_stream = ffmpeg.input('Of Monsters and Men - Wild Roses.mp4') audio_stre
6 2023-12-25
编程技术问答社区
使用gstreamer结合音频和视频流
我使用RTP流的GSTREAMER将MP4(MPEG-4)文件从一个设备流到另一台设备.基本上,我将MP4文件分配到其音频和视频文件中,然后将其全部发送到流式传输的另一个设备.现在,我想将MP4文件保存到另一个设备中的磁盘,但我的问题是我能够单独保存音频和视频文件,并且不能单独播放. 我对如何将音频和视频RTP流组合在一起以形成我的MP4文件并将其保存到另一个设备中的文件时感到困惑. 这是命令行代码: 发件人(服务器) gst-launch-0.10 -v filesrc location=/home/kuber/Desktop/sample.mp4 \ ! qtdemux name=d \ ! queue \ ! rtpmp4vpay \ ! udpsink port=5000 \ d. \ ! queue
10 2023-11-18
编程技术问答社区
iOS AVFoundation音频/视频不同步
问题: 在每次播放期间,音频落后于视频的1-2秒. 设置: 资产中装有媒体流的avurlasset. 要编写组合物,我使用的是AvmutableCompositions和AvmutableCompositionTracks带有非对称时间尺度.音频和视频都流到设备.音频的时间尺度为44100;视频的时间表为600. 播放是用avplayer完成的. 尝试解决方案: 使用videoAssetTrack.timeRange [composition insertTimeRange]. 使用CMTimeRangeMake(kCMTimeZero, videoAssetTrack.duration); 使用CMTimeRangeMake(kCMTimeZero, videoAssetTrack.timeRange.duration); 代码: +(AVMutableComposition*)overlayAudio:(AVURLAsset*
56 2023-05-05
编程技术问答社区
如何使用ffmpeg在python中合并音频和视频文件?
我正在尝试创建一个python脚本,该脚本合并一个(音频+视频)文件中的音频和视频文件. 我正在使用ffmpeg来实现这一目标,但它无法正常工作,我遇到了一个错误. 在此脚本运行时,这里是我的脚本. import os import subprocess import time from datetime import datetime def merge_all(): global p p =subprocess.Popen('ffmpeg -i temp_vid.mp4 -i temp_voice.wav -c:v copy -c:a aac -strict experimental - strftime 1 ' + dt_file_name ,stdin=subprocess.PIPE,creationflags = subprocess.CREATE_NO_WINDOW) time.sleep(2) print('merging done')
22 2023-04-20
编程技术问答社区
FFmpeg-非单调增长的dts是什么意思?
观察 - 部分 - i 我在其他地方看到了一个建议,可以运行以下命令,以查看我的.mp4是否有问题. ffmpeg -v error -i ~/Desktop/5_minute_sync_output_15mn.mp4 -f null - 2>error.log 当我运行上述命令时,我在下面所示的线路上看到一堆日志. 应用提供了无效的,非单调的DTS 流中的Muxer 0:15635> = 15635 这是从搜索和读取很多的,我知道解码时间戳不是顺序的. 观察 - 第二部分 但是,使用以下命令和一些后处理检查同一MP4的帧,我在frames_info json中看不到pkt_dts在视频或音频流中都无法订购. . ffprobe -loglevel panic -of json -show_frames ~/Desktop/5_minute_sync_output_15mn.mp4 这使我怀疑我在观察中的最初理解 - 部分 - i
126 2023-04-20
编程技术问答社区
如果我在mp4parser中合并了更多的视频,音频和视频不能正常同步
我已经使用MP4Parser使用MP4Parser进行动态暂停的视频,并为最多6秒录制记录视频捕获.在预览其工作正常时,当录制视频时,使用最小暂停/记录,如果我尝试过超过3个暂停/记录,则意味着最后一个视频文件未与Audio正确合并.该视频的开始,同步是可以的,但最后视频悬挂和音频在屏幕上播放,剩余文件持续时间约1sec. 我的录音经理 public class RecordingManager implements Camera.ErrorCallback, MediaRecorder.OnErrorListener, MediaRecorder.OnInfoListener { private static final String TAG = RecordingManager.class.getSimpleName(); private static final int FOCUS_AREA_RADIUS = 32; private stati
1796 2022-07-19
编程技术问答社区