我想使用obs将RTMP流推向Drimenter Server.但是我有错误: 无法访问指定的频道或流键,请 仔细检查您的流键.如果正确,可能会有问题 连接到服务器. 在这里我的配置: 使用docker容器安装 sudo docker run -d --restart always \ --name restreamer \ -e "RS_USERNAME=admin" -e "RS_PASSWORD=test" -e "RS_TOKEN=test" \ -p 8080:8080 -p 1935:1935/udp -p 1935:1935/tcp -v /mnt/restreamer/db:/restreamer/db \ datarhei/restreamer:latest obs的设置: 我有错误: 请帮助我解决此问题. 谢谢! 解决方案 Stream Key令人困惑,请尝试以下操作: 服
以下是关于 rtmp 的编程技术问答
下面是AS3 Flash中的基本代码位.使用RTMP RED5的简单视频流示例.但是我似乎在连接到流时遇到问题.我正在使用与Red5服务器演示安装相同的视频文件.(我通过正确运行它已验证了OFLA的已安装演示的演示) 我的输出跟踪作为连接成功和视频文件的播放开始.但是我无法获得它的元数据或实际播放. netstatushandler netConnection.connect.success netstatushandler netstream.play.reset netstatushandler netstream.play.start 在提供视频文件的路径时,我在这里缺少什么?它们位于带有默认RED5安装的同一演示示例文件夹中. package { import flash.display.*; import flash.events.*; import flash.media.*; import flash.net.
我一直在使用React,Redux,Node Media Server和JSON Server进行此类抽搐.它允许用户通过将其OBS配置为服务器URL的流键,等于在React App中创建的流的ID来直接流式传输视频/音频.可以在您要查看的流的结尾网址上找到. 您可以通过 https://github.com/xorinnebulas/streamy P> 您还可以在 https://streamy-app.herokuapp上查看我当前部署的网站部署版本.com/ 这是我对位于streams/rtmpserver/index.js 的节点媒体服务器的配置 const NodeMediaServer = require("node-media-server"); const HTTP_PORT = process.env.HTTP_PORT || 8000; const config = { rtmp: { port: 1935, chunk_s
我的目标是在图片组合中的图片中将(2)RTMP源编码为H265 mpegts,仅从CAM1 RTMP源将音频发送到AppSink; 这就是我在脑海中看到它的方式,但我可能错了: [已确认]图片管道中的图片(在设备上)图片: 使用的设备:CAMLink 4K(Sony Action Cam FDR-X3000)和Logitech C920 v4l2src device=/dev/video0 ! nvvidconv ! queue ! comp.sink_0 v4l2src device=/dev/video1 ! video/x-raw, width=800, height=448, framerate=30/1, format=YUY2 ! videobox left=-4 right=-4 top=-4 bottom=-4 ! nvvidconv ! queue ! comp.sink_1 nvcompositor name=comp sink_0::width
我希望能够创建一个可以读取和发布RTMP流的应用程序. 使用OpenCV,由于它的FFMPEG后端,我可以阅读RTP. 从ffmpeg中流视频,并使用opencv /p> C ++ RTMP是另一种可能性,但这是RTMP服务器,因此它主要请求并发送文件.尽管开源,我不确定如何以使我的项目可用的函数调用的方式将其构建或集成到Visual Studio应用程序中. 其他来源表明OpenCV的RTSP不好. . 如何运行流服务器,例如RTMP C ++并获取原始数据. OpenCV可以编码和解码用于流的图像数据,但是如何链接两个? C ++应用程序可以一起管道流动吗?如何与该流进行连接以发送更多图像?另外,要接收图像? 问: 解决方案 crmtpserver和librtmp效果很好.
我正在尝试在IP摄像机上进行一些处理,并且效果很好,但是我看到了现实世界和视频捕获之间的滞后. 我正在使用rtsp://@ip:port/live ext 该相机具有一个Web界面(IE/ActiveX),该摄像头显示图像非常低. (约200〜300毫秒). 我测试了此 nb:我设置了分辨率(1080,720),并且我使用了gpu nvidia qaudro1000它运行良好,这是我认为问题与处理或硬件无关,它与代码有关. . 编辑:它可能与视频缓冲区有关.有没有办法使其使用最新图像? edit2:我在VLC上获得了很好的滞后结果,只有延迟300ms 谢谢! 您可以看到我正在使用Bellow的代码: import cv2 import time import argparse import numpy as np from PIL import Image from utils.anchor_generator import generat
现在,我正在使用RTMPStreamPublisher在Wowzaserver发布视频.它成功地上传了那里,但是有人可以告诉我如何在上传到服务器时在iPhone上存储相同的视频? 我正在使用 https://github.com/slavavavdovichenko/medialibdemos 可用的文档.如果我只能存储发送出版的数据,那么我的工作将成功. 这是他们使用的方法上传流的方法,但是我找不到在iPhone设备上存储相同视频的方法: // ACTIONS -(void)doConnect { #if 0 // use ffmpeg rtmp NSString *url = [NSString stringWithFormat:@"%@/%@", hostTextField.text, streamTextField.text]; upstream = [[BroadcastStreamClient alloc] init:url resol
我有一个流媒体服务器,该服务器在RTP数据包中接收RTMP视频,并将这些数据包发布到Web浏览器中.建立了连接,但没有显示视频. 我的服务器看起来像这样: func main() { http.HandleFunc("/createPeerConnection", createPeerConnection) panic(http.ListenAndServe(":8080", nil)) } func createPeerConnection(w http.ResponseWriter, r *http.Request) { peerConnection, err := webrtc.NewPeerConnection(webrtc.Configuration{}) if err != nil { panic(err) } // Create a video track videoTrack, err :=
我正在尝试在node.js中实现RTMP数据. 我正在为此代码提供: https://githpps://github.com/timwhitlock/node-amf/tree/master/node-rtmp 根据代码和书面的Adobe文档,连接开始后,握手过程开始,客户发送了1537 Octets的流,其中第一个是RTMP版本(应始终是3),以下4是时间戳,其他4个应为0(0000),其余数据都是随机字符. 现在,链接的库完成了所有这些操作,但是在检查4个零的点时会被打破.它使用NET模块创建服务器,并在连接事件上收听.使用事件提供的套接字对象,将编码设置为"二进制"(这种类型的编码不存在我在文档中看到的 http://nodejs.org/api/stream.html#stream_stream_stream_setream_seteencoding_encoding_encoding ),然后尝试检查四个零的 我怀疑该插座在" UTF8"中编码,并且在
我正在为一个我需要使用相机流进行的项目进行研究.在多次命中和谷歌搜索之后,直接将ESP-32相机流传输到我自己的RMTP服务器的解决方案都无法接近. 已经尝试了解决方案: 1)我尝试使用Raspberry Pi重新流程ESP-32-CAM,它效果很好,但我正在寻找的东西{dasved disved disted disted disted disted disted disted disted at disted,因为不想将RaspberryPi用于约束目的} 2)ESP-32-CAM:记录和FTP传输带有时间触发器(不尝试,但认为这不是一个好方法). {丢弃,因为它不是实时} 3) ESP32用httpclient fo php 我尝试过,但它仅适用于图像,其次是在循环函数中执行代码,因此由于保存和发布操作而导致很长的延迟. 请注意:我不是在查看ESP-32 CAM充当流服务器和浏览器可以像: 我已经尝试过它,并且它运行良好,但对于涉及在不限制的情况
我必须做一个半寿命流.我使用了nginx-rtmp模块,然后通过ffmpeg使用: 将内容推向它. ffmpeg -re -i content.mp4 -r 25 -f fvl "rtmp://rtmp.server.here" 当我从" rtmp://rtmp.server.here"中打开VLC时,该流运行正常." ,但我还必须制作播放这些流的iPhone和Android应用程序. 这就是问题所在,该流在Android和iPhone上不起作用. 如果我使用WOWZA流云并流到Wowza Cloud而不是我自己的Nginx-rtmp服务器,那么为Android和iPhone编写的同一应用程序可以很好地播放流. 现在,nginx-rtmp无法正常工作,或者还有什么?我还尝试了crtmpserver,并且发生了同样的事情. 我想获得的东西: 我必须开发一个系统,我们可以在该系统上向服务器上游(拥有它的权利),然后制作网站,Android App&iPhone
我想使用obs通过RTMP传输到NGINX服务器,然后本地将RTMP片段发送到WebRTC,以便可以通过MediaStream将其传输到客户端.我认为这可能是可能的,因为它本质上是我在从nginx提取RTMP片段时遇到了麻烦,这是我在文档是pull rtmp://....当我尝试此操作时,我没有看到任何文件出现在我的根文件夹中,如果我使用hls on,通常会在其中找到HLS文件.有人知道如何完成我正在尝试实现的目标吗? 谢谢! 解决方案 这很容易!您可以将其基于Pion的 rtp-to-to-to-to-to-to-to-webrtc 例子.这使您可以轻松地将媒体从ffmpeg进入浏览器. 您运行的FFMPEG命令将就像这是ffmpeg -re -i rtmp://localhost:1935/$app/$name -vn -acodec libopus -f rtp rtp://localhost:6000 -vcodec copy -an -f rtp rtp:l
我使用arut nginx-rtmp-module( -rtmp-module )在媒体服务器上,然后我尝试使用ffmpeg流到dash应用程序中,然后我通过使用VLC播放它来测试流. ,它等待了大约30秒的时间开始播放,并且从一开始就播放,而不是当前的时间戳. 这是我在RTMP块上的当前配置 rtmp { server { listen 1935; application live { live on; exec ffmpeg -re -i rtmp://localhost:1935/live/$name -c:a libfdk_aac -b:a 32k -c:v libx264 -b:v 128K -f flv rtmp://localhost:1935/hls/$name_low -c:a libfdk_aac -b:
我正在尝试构建将您的屏幕从浏览器流到客户端的服务(类似Twitch). 我已经完成的是我已经使用RTMP构建了一个工作的NGINX服务器,我使用obs进行了测试.效果很好. 我的问题是如何使用webrtc从浏览器(不是从obs或其他广播公司)流屏为rtmp的nginx服务器? ? 解决方案 对于RTSP WEBRTC/RTMP WEBRTC转换, 您需要运行某种与所有这些格式/协议一起使用的WEBRTC网关/媒体服务器软件,并且可以在所有这些格式/协议之间进行传输. 尝试WOWZA/虚幻媒体服务器/FlashPhoner. https://gh/en.wikipedia.org/wikipedia.org/wiki/wiki/wiki/comparison_comparison_streaming_media_media_media_sysystems 因此,在您的情况下,您想通过WEBRTC(H264编解码器是必须的)发布从浏览器到媒体服务器的屏幕,然后使用ng
我的要求是如何从实时流视频URL读取和创建MP4文件. 我为这个话题做了很多研发,但没有得到任何答案. 以下链接对我也不有用.当我在此问题中提供FFMPEG命令时,它给了我一个例外. 谢谢. 解决方案 以下是Java方法,您可以使用它与FFMPEG库的集成一起读取RTMP URL的数据. public static void liveRtmpFeed() throws IOException, InterruptedException { ProcessBuilder processBuilder = new ProcessBuilder("ffmpeg", "-i", "rtmp://192.168.0.90/oflaDemo/livestream", "-ss", "00:00:00", "-t", "00:00:10", "-c", "copy", "/home/outp
我在instafeed.me上创建了一个实时流会话,然后使用ffmpeg将MP4文件发送到流.但是我遇到了IO错误. 命令是 ffmpeg -rtbufsize 256M -re -i "1.mp4" -acodec libmp3lame -ar 44100 -b:a 128k -pix_fmt yuv420p -profile:v baseline -s 504x896 -bufsize 6000k -vb 400k -maxrate 1500k -deinterlace -vcodec libx264 -preset veryfast -g 30 -r 30 -f flv "rtmps://live-upload.instagram.com:443/rtmp/XXXXXXX?s_sw=0&s_vt=ig&a=XXXXXXX" 输出为 ffmpeg version git-2020-05-04-5767a2e Copyright (c) 2000-2020 the
我正在尝试编写一个集成测试,该测试实际上需要RTMP流到第三方服务. 如何使用FFMPEG命令来生成RTMP测试流?/a>似乎是正确的答案,但是我无法正常工作. 作为基线,没有RTMP,ffmpeg -f lavfi -i testsrc -t 30 -pix_fmt yuv420p test.mp4作品. ffmpeg -f lavfi -i testsrc -t 30 -pix_fmt yuv420p -f flv rtmp://mylocation给我错误rtmp://mylocation: Input/output error 我应该注意URL有效,否则我会出现错误,说它无法打开连接. 我也尝试了ffmpeg -f lavfi -i testsrc -pix_fmt yuv420p -f flv rtmp://mylocatiom.我读到,如果您不提供时间,它会永远持续,并认为我可能需要RTMP流.我有同样的错误. 这是最后一次尝试的全部输出,以及下