javartsp读取的简单介绍

博主:adminadmin 2022-12-07 00:54:06 77

今天给各位分享javartsp读取的知识,其中也会对进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

本文目录一览:

海康威视rtsp取流方法

最近在做视频开发相关的工作,用到了海康威视的监控器摄像机,做一些记录。

RTSP取主码流和子码流

首先,本人使用的是海康威视的产品,其他产品可能有差异,播放器使用VLC。

获取主码流:(以下仅为本人根据自己摄像机设置,具体要看摄像机如何配置)

rtsp://admin:12345@192.168.2.65:554/h264/ch1/main/av_stream

或者简写为:rtsp://admin:12345@192.168.2.65

获取子码流:

rtsp://admin:12345@192.168.2.65:554/h264/ch1/sub/av_stream

其中:

admin:为摄像机账号,根据自己的摄像机填写

12345:为摄像机账号密码,根据自己的摄像机填写

192.168.2.65:为摄像机的IP地址,根据自己摄像机IP填写

554:RTSP端口默认值,需查看自己是否已经设置过

主码流和子码流区别

背景/冲突:摄像头拍摄的图像质量都比较高,如果网络传输 ,则需要比较高的带宽,而实际使用中带宽比较低,造成网络传输视频卡顿乱码等,不能传输高质量的图像视频。

解决:提出主码流和子码流概念

作用:主码流主要进行本地存储,子码流适用于视频在低带宽网络上的传输,主要是通过降低图片质量提高传输视频流畅性。

优点:解决了低带宽情况下不能传输高质量视频的问题,高质量的图像保存于本地,需要时随时查看,同时远程低带宽传输依然能看到流畅较清晰画面。

java 怎么将rtsp视屏协议流转换成rtmp或者 ogg

今天尝试了一下利用ffmpeg 将流保存为MP4格式的是可以的,但是我想用RED5去看一下ffmpeg将rtsp转rtmp的效果,但是ffmpeg报了个不能连接端口,还在寻找原因中

java如何获得网络rtsp流高手指点下最好给一个demo小弟先谢过了

用javacv库

import org.bytedeco.javacv.FFmpegFrameGrabber;

import org.bytedeco.javacv.FrameGrabber.Exception;

方法里写:FFmpegFrameGrabber grabber = new FFmpegFrameGrabber( "视频流");

java中怎么实现RTSP服务器?说下思路,说详细一点,第一次接触RTSP

按rtsp的协议写网络程序。。。。。。。。。。有一个开源的项目叫jrtsp

rtsp协议的摄像头如何读取车牌信息

首先确认摄像头是否支持车辆检测,启用事件抓图,配置sdk。

由于H265播放器的优势,各大平台的视频已经开始逐渐从H264转变为了H265,在不久的将来,H265必然会成为视频播放的主流编码格式。目前在产品设计过程中,因考虑服务器性能消耗问题,播放H264视频流是使用EasyWasmPlayer播放器对服务器要求较高,有用户希望播放器是可选项,也就是播放H264视频流时用EasyPlayer.js,播放H265视频流时用EasyWasmPlayer,以此来解决以上问题。

针对以上需求,TSINGSEE青犀视频云边端视频分析平台EasyNVR首先做了项目验证,同时集成EasyPlayer.js和EasyWasmPlayer,系统可以根据接收的视频流自动匹配播放器,也可以手动切换对应的播放器,极大的方便了用户使用。由于平台同时集成了两个播放器,因此需要构建配置页面。在配置页面,通过后端的接口与后端约定,auto为自动选择播放器,即在播放界面通过后端返回的流类型类自动选择播放器,‘EP’即固定选择为EasyPlayer播放器,当播放265流时,会提示用户需要切换。

rtsp流浏览器播放方案

rtsp流在主流浏览器并不支持直接播放。比如大华的视频流:rtsp://admin:123456@

192.168.10.129/cam/realmonitor?channel=1subtype=0,用vlc可以直接播放。但在浏览器会报ERR_UNKNOWN_URL_SCHEME。那如何在浏览器中播放呢。

以下列出几种方案。

1、安装插件(chrome最新版基本都不支持)

类如:kurento,vlc插件(谷歌浏览器版本41以下),vgx插件(不支持高版本,chrome72.0版本可用)等。

2、安装软件(中间件,基本都付费)

类如:Appemit(调用vlc插件播放rtsp),可以免安装的,目前只能windows,免费版会有提示。

猿大师中间件(底层调用VLC的ActiveX控件,实现在主流浏览器网页中内嵌播放多路RTSP的实时视频流),中间件收费的。

PluginOK(牛插)中间件。底层调用ActiveX控件VlcOcx.dll。(商业用途需付费使用)

3、服务器拉流转发及协议转换

示意图如下所示:

推流--------------服务器转发--------------拉流

方法一览:

a,vlc软件串流到http协议 ,网页显示几个视频需启动几个vlc,只适合应急场景。

b,html5 + websocket_rtsp_proxy 实现视频流直播 ,基于MSE(Media Source Extensions,W3C),扩展H5的功能。

步骤:服务器安装streamedian服务器,客户端通过video标签播放。

原型图:

价格:

c.基于nginx的rsmp转发

基于nginx实现rtmp转化,用flash实现播放。由于flash目前大多浏览器默认禁用,不推荐此方式。

步骤:安装ffmpeg工具,安装nginx。

另外nginx-rtmp-module也支持HLS协议,可以搭建基于hls的直播服务器。

d.rtsp转hls播放,通过ffmpeg转码

步骤:安装ffmpeg工具,ffmpeg转码。

形如:

ffmpeg -i "rtsp://admin:123456@192.168.10.129/cam/realmonitor?channel=1subtype=0" -c copy -f hls -hls_time 2.0 -hls_list_size 0 -hls_wrap 15 "D:/hls/test.m3u8"

缺点是直播流延时很大,对实时要求比较高的不满足要求。

案例:基于EasyDarwin拾建转码服务器。参考地址:

通过存储的m3u8去读取。

e.websocket代理推送,FFMPEG转码

此方法与a,b类似。但更实用。

以下提供两种方案:

(1)Gin+WebSocket+FFMPEG实现rtsp转码,参考:

通过FFMPEG把rstp转成http,ginrtsp作为转发服务器,但需要自己写相应接口,需要了解go语言。

(2)node + ffmpeg + websocket + flv.js,参考:

步骤:在node服务中建立websocket;通过fluent-ffmpeg转码,将RTSP 流转为flv格式;通过flv.js连接websocket,并对获取的flv格式视频数据进行渲染播放。

import WebSocket from 'ws'import webSocketStream from 'websocket-stream/stream'import ffmpeg from 'fluent-ffmpeg'// 建立WebSocket服务const wss = new WebSocket.Server({ port: 8888, perMessageDeflate: false })// 监听连接wss.on('connection', handleConnection)// 连接时触发事件function handleConnection (ws, req) {  // 获取前端请求的流地址(前端websocket连接时后面带上流地址)  const url = req.url.slice(1)  // 传入连接的ws客户端 实例化一个流  const stream = webSocketStream(ws, { binary: true })  // 通过ffmpeg命令 对实时流进行格式转换 输出flv格式  const ffmpegCommand = ffmpeg(url)    .addInputOption('-analyzeduration', '100000', '-max_delay', '1000000')    .on('start', function () { console.log('Stream started.') })    .on('codecData', function () { console.log('Stream codecData.') })    .on('error', function (err) {      console.log('An error occured: ', err.message)      stream.end()    })    .on('end', function () {      console.log('Stream end!')      stream.end()    })    .outputFormat('flv').videoCodec('copy').noAudio()  stream.on('close', function () {    ffmpegCommand.kill('SIGKILL')  })  try {    // 执行命令 传输到实例流中返回给客户端    ffmpegCommand.pipe(stream)  } catch (error) {    console.log(error)  }}

优点全部基于js。前端即可搞定。

参考:

javartsp读取的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于、javartsp读取的信息别忘了在本站进行查找喔。

The End

发布于:2022-12-07,除非注明,否则均为首码项目网原创文章,转载请注明出处。