互动协作白板与音视频实时同步技术实践

来源:QQ快报
责任编辑:鲁晓倩
字体:

直播:(一对多2113,RTMP/HLS/HTTP-FLV,CDN)直播是一种非常典型的流媒5261体系统,通常会分4102为推流端(Pusher)、拉流端(或者叫播放端,1653Player)以及直播流媒体中心(直播源站),通常会使用CDN进行直播的分发,因此大部分情况下使用的是通用标准的协议,如RTMP,而经过CDN分发后,播放时一般可以选择RTMP、HTTP-FLV或HLS(H5支持)等方式。直播的特点是只有一个推流端,以及多个的观看端。实时音视频:(双人/多人通话,UDP私有协议,低延时)实时音视频(Real-TimeCommunication,RTC)主要应用场景是音视频通话,技术关注点是低延时通信,因而使用基于UDP的私有协议,其延迟可低于100ms,适用于双人通话或是多人群组群话,典型的场景就是QQ电话、微信电话。互动直播:(连麦,二对多/多对多,私有协议+标准协议,DC/OC+CDN)互动直播是在实时音视频的基础上,将实时音视频某个房间中的画面经云端混流后,通过旁路直播的方式直播出来。因此,互动直播主播与连麦者之间延迟与实时音视频一致,而主播/连麦者与普通观众之间的延时则与普通直播相同。旁路直播(关键词:云端混流,转推,CDN)将主/副播实时音视频通话时的整个房间的画面复制一份到云端进行云端混流,并将混流后的画面推流给直播系统的工作方式。因为混流后的视频数据流和主/副播通话房间实际上并不是同一路流,而是在另外平行的一路,因而称为旁路,即不在主路。云端录制时,录制的流也是通过旁路的方式从流媒体中心引出,存到COS中www.book1234.com防采集请勿采集本网。

本文整理自即构科技互动白板技术负责人陈晓聪在LiveVideoStack的线上分享,内容主要围绕白板与音视频的同步和白板的多端实时互动两个角度,深度解析即构在互动白板方面的技术探索实践。

会议室音视频系统解决方案找美凯股份。因没给出具体设计需求,向您推荐MediaComm美凯的指挥中心会商室/企业视频会议室音视频系统解决方案,下面简单介绍现代化会议室的建设需求以及光纤4K KVM解决方案,欢迎详细沟通。 •现代多功能会议室

文 / 陈晓聪

整理 / LiveVideoStack

会议平板与电子白板的区别可以分为以下几点进行区分: 1.显示效果: 会 议平板基于液晶显示技术,显示要远远好于投影加电子白板的组合。首先它消除了影像的遮挡,目前即便是超短焦投影在书写的时候一样会出现遮挡,而这对于液晶电子白板来说是完

大家好,我是来自即构的陈晓聪,现在主要负责互动白板的技术研发工作。接下来我将为大家分享即构在互动白板的技术探索实践。

好复杂好麻烦,电视本身就是安卓系统给电视安装应用就行了啊,只不过手机软件不支持遥控器需要用鼠标代替。手机推送本身就是多此一举。我现在给你回答这个问题就是用知道APP在电视上操作的

本次分享先主要围绕以下3个方面展开,互动白板的产品能力简要介绍,互动白板的整体技术框架介绍还有互动白板的技术优势解析。技术点主要围绕音视频与白板的同步和多端实时互动同步讲解。

电子白板音频和视频不能同步,是电脑输出给投影仪和音响设备的两路信号不同步了,如果排除片源和电脑输出问题,可以检查是否中间连接环节(例如是否通过控制器或者切换器)引起的信号不同步。

互动白板产品简介

这 种技 术 问题 我 还 真是不 会 解决。网 络 卡顿 可 能 是因为教 学 点 的 网 络 情况 不稳定 ,还有录 播 的 网络 自 适 应 能力 不 强 吧! 我 们用 的 是 奥威 亚的 互动 录 播 , 质 量比 较 好 , 没有 发 生过 上 面的 问 题。

首先我们为大家介绍即构互动白板的产品特点,它依托于即构成熟的亿级海量用户实时信令网络,提供了功能齐全的百人实时在线白板互动服务,具有以下几个特点。

全面覆盖主流平台、主流框架:我们各个平台的技术方案都是基于原生平台的技术框架开发,不依赖第三方框架,这主要是方便进行性能优化还有降低SDK包的大小。

互动涂鸦实时同步:这个功能可以做的很简单,但是要能够适应各种变化操作请求和网络环境的话,还是比较有难度的,这也是我们要探讨的一个技术点。

l白板绘制与音视频实时同步:这是对于提升用户体验还是很大的一个功能点,也是我们此次分享要重点探讨的。

主流文档格式支持,包括PPT/PPTX/DOC/DOCX/XLS/XLSX/PDF/PNG/JPG/JPEG/BMP/TXT等常见的PPT、DOC、XLS,各种图片格式、文档格式等,且支持动态PPT。根据我们的了解,在支持文档格式方面,即构应该是现在行业内支持最全的。

丰富的白板教具,包括画笔、问题、直线、矩形、椭圆、激光笔、橡皮擦等标准的工具。

白板与音视频的实时同步录制:这个功能主要是用于音视频和白板的实时云端录制,目前还处于内测阶段,相信很快就可以上线了,大家到时候可以关注一下。

以上就是对即构互动白板产品能力的介绍。

互动白板技术框架

接下来,我们来了解一下互动白板的整体的技术框架。

从上图可以看到,我们的整体技术框架主要由5个模块构成。互动白板服务主要负责信令数据的处理、存储、转发,同步信令就是由这个服务来完成的。文档转码服务主要负责文档的转码和文件访问的鉴权控制,我们的转码服务支持转码出pdfPDF和SVGsvg,这两种文件格式都支持矢量放大,所以在客户端可以呈现一个较好的放大效果现场结果。云录制服务用于对音视频流和白板进行实时现场云端录制。对象存储和内容分发网络主要是基于云厂商提供的存储和分发能力。

大家可以看到,我们整体的设计思想是课件的存储与互动相分离,以便于进行扩容。转码与存储相分离,除了可以使用即构的对象存储,我们给了客户更多的选择,比如客户可以不使用即构的对象存储和内容分发,而选择使用自己的云存储和内容分发。毕竟有的客户,比如说教育行业对课件的安全性是比较敏感的。整个服务目前已经实现全球部署、就近接入,我们的互动白板服务、文件转码服务、云录制服务都在国内外部署了集群和全球的代理节点,便于用户的信令就近访问。依赖云厂商提供的全球能力存储和内容分发,我们也能够实现客户对文档资源的就近访问。

这套技术框架从我们的实现来看,在并发性和吞吐性方面的表现是很出色的,这其实也是依赖我们在音视频信令方面的技术积累。以上就是对整个技术框架的简单介绍。

互动白板技术优势解析

关于技术优势的解析,我们主要围绕白板音视频同步和多端实时互动这两个常见的技术难点进行解析。

白板音视频同步

1. 痛点分析

(1)什么是白板音视频不同步

从上图展示的场景,很明显我们可以知道在这个场景中白板比音视频流先到达了学生端,从而导致学生端先看到了白板的操作再收到音视频流。我们把上面从老师到学生的过程抽象为3个阶段,分别为采集、传输阶段和渲染阶段。采集阶段是在老师端,老师这边的音视频采集和白板操作其实是同步进行的,经过传输后到达渲染,渲染出的结果并不同步,我们由此可以确定的是,这个问题是在传输阶段产生的。那么接下来我们就来探讨白板和音视频是怎么进行传输的。

(2)为什么会不同步

我们都知道音视频的传输是通过流媒体网络与视频流进行传输。根据我们的了解,白板的传输在业内目前主要有两种通用模式,一种是以视频流模式传输互动白板,另一种是以文件+信令的模式来传输互动白板。

我们先讲解视频流模式是怎样传输的,比如在教育领域,老师端会经常采集和共享某个窗口、屏幕或区域,然后通过对窗口、屏幕、区域进行画面采集,通过视频前处理、编码、传输达到学生端,学生端再进行解码后处理,并最终渲染出来,整个过程和音视频没什么区别。

而文件+信令的模式是依赖信令服务的模式,通过文档服务对文件进行上传、转码、分发、下载和渲染。在这个过程中,当有操作时便通过信令服务转发操作信令。

(3)视频流模式与文件+信令模式关键点对比

了解完两种模式的白板传输,我们来比较一下这两种模式的特点。

首先在带宽占用上,因为视频流模式很明显,它具有更高的带宽占用,尤其是在分辨率和帧率越高,码率越大的情况下,带宽占用也会相应的增多。文件+信令模式除了文件上传和下载还有中间的信令传输,数据量比较小,所以它的带宽占用比较低,而且是在有操作的情况下才有信令传输。在带宽占用方面,文件+信令模式是有优势的。

在清晰度方面,视频流模式不支持矢量放大,且容易受网络状态的影响,在网络条件较差时,为了保证音视频流畅度往往需要降低码率,从而导致清晰度更低。文件+信令模式则受网络状态的影响较低,只要网络条件能够确保把文件下载下来,通过矢量放大就可以达到很高的清晰度。

在成本方面占比较大比重的是带宽,所以文件+信令模式具有更低的成本。

在互动性方面,由于通过视频流传输是单向性的,而文件+信令模式是双向性,所以相应的互动性比较高。

在终端性能方面,由于视频流模式会涉及视频的编解码、处理、渲染,所以对终端的性能要求比较高,而文件+信令模式只是文件和图元的渲染,对终端的性能要求比较低。

当然视频流模式也有它的优点,由于它是单向传输的,所以内容比较丰富、易于扩展。比如在教育场景下,只要老师端做好,学生端就可以观看到。文件+信令模式在这方面扩展性会受限于课件和教具,比如说白板的工具等,扩展性会稍差一些。

因为通过视频流模式,白板和音视频都是使用流媒体网络,所以它们比较容易进行同步,而文件+信令模式因为一个是流媒体服务一个是信令服务,所以两者比较难以同步。

通过以上比较我们发现,文件+信令模式在宽带占用、清晰度、成本、互动性、终端性能等方面具有明显的优势,对复杂多样的设备和网络环境具有更强的适应性,所以该模式越来越成为业界的主流技术方式。但是该模式要解决的问题就是白板和音视频同步问题。而白板和音视频不同步的根本原因就在于音视频走的是流媒体服务通道,互动白板走的是信令服务通道,两者彼此相互独立,没有同步时间戳,各自渲染,当两者传输延迟差超过200ms时用户就能够感觉到不同步的问题。

(4)最容易出现不同步问题的两大场景

根据我们的经验,我们提炼出了以下两个典型场景:

大班课场景。为了降低成本,大班课场景都会采用直播模式,音视频流往往需要转推CDN,这个时候的音视频流传输延迟达到秒级,而白板信令的传输延迟是几十毫秒。所以问题很明显,白板信令和音视频流延时时间差达到秒级以上,从而导致不同步问题。

小班课场景。在小班课场景下,为了达到一个良好的实时效果,一般会采用低延迟实时音视频方案,在正常网络下,现在主流的音视频厂商,都可以做到音视频的延迟在100ms以内,所以这个时候,音视频的传输延迟和互动白板的传输延迟其实并不大,观看端是感受不到不同步的问题。但是一旦进入弱网情况,两者的网络传输延迟差会变大,因为音视频流是采用UDP协议,而信令服务一般的传输协议是TCP协议,TCP协议在抗弱网方面天然就比UDP协议差,从而出现不同步的问题。所以我们后面的优化方案将主要针对这两种问题进行优化。

2. 解决方案

(1)白板信令与音视频流时间戳对齐

既然白板信令比音视频流的传输延时低,但是我们又没办法控制传输的延时,所以只能从控制渲染入手。那么要控制渲染,就需要在接收端进行时间戳的对齐,对齐之后再抛出来渲染。我们的解决思路是,当老师发起白板操作时,白板信令带上当前的时间戳,同时把时间戳注入到音视频流的SEI中。音视频流和白板信令分别经过流媒体服务和白板信令服务分发后,此时白板信令会先到达学生端,对白板数据进行缓冲,等到音视频流到达后,解析出其中SEI的时间戳,对齐后再一起抛出渲染。通过这种方案可以达到一个完全的同步效果。

(2)白板信令网络优化

针对小班课场景白板信令网络传输抗弱网性较差的问题,我们的解决思路是对白板的网络传输进行优化,提高白板信令的抗弱网性能,降低传输时延。基于我们在音视频信令方面的技术实践,我们从网络传输协议入手,把TCP协议优化为QUIC协议,相比TCP协议,QUIC协议具有以下优势:

l降低连接延时,对QUIC协议有所了解的同学应该知道,QUIC协议的传输协议是UDP,所以它可以减少握手次数,大部分场景下可以实现0RTT建连。

l改善拥塞控制,使用新的ACK确认机制,在丢包率高的网络下,减少重传量,提升网络的恢复速度。

l多路复用避免对头阻塞,一个连接的多个stream之间是没有依赖的,不会互相影响,导致阻塞。

l实现前向纠错,减少超时重传。

l连接平滑迁移,客户端切换网络之后,如果是用TCP的话,会导致TCP的断开和重连,但在QUIC协议之下,可以仍使用原来的连接。比如说客户端从4g4G网络切换到wifiWiFi网络,可以实现不用重新连接的过程。

在具体的实践上,我们在客户端和白板信令服务之间接入了调度服务,这个服务是基于QUIC协议自研的调度服务。一方面,我们优化了从客户端到服务端的网络传输协议,另一方面,接入的调度服务可以在全球进行多地部署,实现客户端的就近接入。从以上两方面来解决用户最后一公里的接入问题,有效降低了白板信令的网络传输延迟,提高了对弱网的抗性,从我们实际测试的效果来看,较之前有明显的改善。

多端实时互动同步

1. 痛点分析

接下来,我们来探讨一下多端实时互动同步的问题以及解决方法。

什么是多端实时不同步呢?我们还是以教育场景老师和学生为例,老师和学生同时对一个课件翻页或移动处理,结果两端呈现出来的结果不一致。通过对各种场景的分析,多端不一致的问题主要可以归纳为以下三点:

多端操作冲突

多端同时操作同一个对象产生冲突,导致多端的不同步。比如说a和b两个人操作同一个对象,a把对象往左拖,b把对象往右拖,结果是a看到的对象在左边,b看到的在右边,两者呈现不一致。这个问题的根本原因主要在于冲突导致,这个问题解决方案是:当多端发起操作时服务端如何进行冲突处理,客户端该执行什么样的策略,确保各端执行同样的规则,从而实现多端的一致性。

操作乱序问题

操作乱序主要是由网络乱序和服务端的并发请求导致的多端不同步。

我们以上图中的场景为例介绍乱序的问题。左边是操作端,右边是观看端,操作端把一个对象从a点快速移到b点,又快速移到c点,所以它的最后结果是在c点。而观看端收到的结果却是,这个对象被从a点移到c点又移到b点,最终结果是b点,导致两者呈现不一致。该问题的难点是如何解决由信令请求在网络传输过程中乱序和并发请求导致的不同步问题。

操作丢失

操作丢失一般是由于白板信令方没有到达接收端导致的多端不同步。比如说老师在互动白板上画了个矩形,结果课堂里有部分同学收到了矩形,有部分同学没有收到,从而导致所有人的结果不一致。该问题的原因一般是接收端因为网络原因没有收到该操作指令,导致操作端和接收端结果不一致。

2. 解决方案

(1)多端操作同步

针对以上痛点我们分别对其进行了优化,其实在线协作文档里面临的最大问题就是多端同步问题,这方面比较成熟的方案是用OT算法。互动白板在协作性上其实和在线文档较为类似,因此,我们在互动白板上借鉴了该思路,采用了中心化的思想来做多端同步。

它的思路是这样的,OT中心负责对客户端的操作请求,根据客户端版本、操作对象、操作类型等信息,进行操作请求的冲突判定、合并操作、转换生成统一操作,通知客户端,客户端只需要根据服务端的通知进行相应的处理即可。

由于客户端只需要执行服务端的操作,那么整个的冲突判定还有合并处理全由服务端来处理,这样就比较容易达到多端同步,这是一个中心化的思想。

互动白板里其实比较难的点应该是文本编辑,这里可以做的很简单,也可以做的很复杂,如果做的很复杂的话,其实有点类似于在线协作文档,如果有对这方面感兴趣的同学,可以去网上搜一些相关的OT开源算法进行了解,我们不在这里对这个点进行阐述。这就是多端操作同步的思路。

(2)乱序操作

关于操作乱序,大家可以看到完整的单向互动流程是像上图这样的,我们可以把整个过程分成clientA到server和server到clientB两个阶段,来分别看看这两个阶段因此乱序的原因是什么。

clientA到server阶段:

客户端对服务端发起并发的http请求的时候,多个请求有可能走不同的网络链路,这个时候,有一个链路的网络有问题就可能导致请求后发先至,也就是服务端收到的请求是乱序的。比较简单粗暴的解决方案就是客户端执行串行发送,每一个请求都等服务端回包完成之后再执行下一个请求。根据我们的实践,这种方法可以很好的解决客户端到server的乱序问题。

server到clientB:

因为服务端推送到客户端一般采用的是TCP长连接,所以这里的乱序问题一般不是由网络传输导致的,更多的是由于服务器的设计方案导致。比如说在服务端没有做串行的设计而是选择并发的请求,就有可能从服务端发出去的请求是乱序的。那么较为简单的解决思路就是把服务端做成串行发送的模式。但是,根据我们的经验,出于对服务端性能的考虑,我们并没有采用这个方案。我们采用的方案是把这个工作交给客户端来做,在客户端进行一个乱序重排,这样可以有效的分担服务端的压力,对服务端的并发和吞吐性具有更好的效果。

(3)操作丢失

操作丢失的问题可以看一下上图的例子,操作端发送了两个操作都到达了白板信令服务,白板信令服务也按顺序发了,先发了操作1接受端收到了,但当发操作2时,接收端网络掉线了,导致接收端没有收到该指令。那么在这种情况下,接收端怎么去把这个丢失的请求同步回来呢?

我们的解决思路主要是两种,第一,接收端需要对网络状态进行监控,当察觉到网络异常时,在断网重连后能够主动去发起同步。第二,在接受端和服务端维持一个心跳同步协议,这样就可以确保无论什么时候,即使稍微慢点也能把丢失的操作同步回来。我们通过以上两种方案,基本可以完全解决操作丢失的问题。

我们通过以上三点,对多端操作同步进行优化,从而达到一个较佳的效果,但多端操作的冲突里面,最复杂的应该是OT中心的转换,因为这里面操作比较多,所以需要去做不同的策略,同时也需要去探索寻找更好的解决方案。

总结一下以上的内容主要是介绍即构互动白板的产品能力,阐述了整体的技术框架,针对白板音视频同步和多端实时同步两个技术难点分享了我们的相关探索和实践。大家如果觉得我们的方案有什么不合理的地方也可以告知我们,或者有更优的方案也欢迎提出来帮助我们进行改进。关于互动白板的其他技术点的解析,我们也发布了相关的文章,大家感兴趣的话,可以关注下。

白板体验Demo:https://www.wjx.top/m/87298128.aspx

LiveVideoStackCon 2020 北京

2020年10月31日-11月1日

这个跟设备本身有2113关系,一、音视频同5261步问题概述:4102 音视频同步问题是可视对讲中的重点需1653要解决的问题之一,也是一直以来被模拟门禁产品厂商攻击的一个弱点,因为模拟可视对讲产品都采用专线传输,不存在这个问题。解决同步问题的方法有很多种,其中时间戳是最成熟最完美也是最复杂的解决办法,可以解决任何多媒体领域的音视频同步问题;其原理是选择一个参考时间,在生成数据流时依据参考时间上的时间给每个数据块都打上时间戳;在播放时,读取数据块上的时间戳,同时参考当前时钟上的时间来安排播放,让快于这个参考时间的包等待,丢弃慢于这个参考时间的包。 在基于时间戳的同步机制中,仅仅对不同步的数据进行处理是不完备的,还需要反馈机制,如基于Windows平台的DirectShow就提供这样一个反馈机制,它的质量控制(Quality Control)可以将播放的状态反馈给源,让源端加快或者放慢数据流的速度。 在多媒体文件采集,播放及对同步的要求都非常严格,如果从多媒体文件中分离出音视频数据的数据不同步,音视频的时间差则会越来越大,这是无法忍受的,所以在多媒体文件中,不但要求有同步机制,还要求有反馈机制。 二、数字可视对讲中的音视频同步方案 在数字可视对讲中,可以考虑的音视频同步方案有两种:一是发送端解决;二是接收端解决。 发送端解决方法比较简单,具体措施是在发送端先将一段时间内采集到音视频数据打包。比如采集到一帧视频图像,将这帧图像与采集这帧视频的时间内采集到的视频数据打成一个包,接收端接收到这个包之后解包分别播放就可以了。发送端解决的控制方法比较简单,但是在高清要求清晰度比较高的情况下就不是很理想,清晰度高,意味着每个音视频包数据量就大,能保证同步,却难以保证连续。我们在同一个线程中按照先后顺序发送PCM音频和H.264视频,测试结果表明这种方法确实存在连续问题。 接收端解决方案绕不开的问题是时间戳,接收端根据接收到的音视频数据的时间戳安排播放。时间戳需要一个参考时间,而采集过程中视频的时间是不定的,数字摄像头采集图像的帧率是一个平均值,不宜用来做参考时间,所以只能用音频时间作为参考时间。 三、声卡编程和声卡驱动的时间机制 门禁可视对讲中音频是双向的。本文的门禁可视对讲方案中,音频的采用PCM(Pulse Code Modulation——脉码调制录音)采集,在网络中传送的也是原始数据,之所以没有对音频数据进行编码处理是基于以下原因:一是S3C6410没有提供对音频的硬编解码,如果使用软件实现编解码,在有限的系统资源条件下难以实现;二是音频数据量较小:采用8000采样率和量化位数为8位的电话语音标准,一秒的音频数据是8K字节,只相当于视频1帧数据的两倍,这对普遍拥有百兆网卡的局域网来说,数据量很小。实验的结果表明,这种简单的处理方式被证明是有效的。 Linux操作系统下音频接口有/dev/dsp,/dev/audio,/dev/Mixer三种。前两种的属性基本相同,DSP是数字信号处理器(Digital Signal Processor)的简称,是用于数字采样(sampling)和数字录音(recording)的设备文件,它对于Linux下的音频编程来讲非常重要。向该设备写数据即意味着激活声卡上的D/A转换器进行放音,而向该设备读数据则意味着激活声卡上的A/D转换器进行录音。目前许多声卡都提供有多个数字采样设备。/dev/audio属性与dsp类似,但更多的用于sun的工作站中,为兼容性考虑,应用中一般使用/dev/dsp作为音频接口。mixer为混音器,也是声卡设备中相当重要的一部分,它的作用是将多个信号组合或者叠加到一起,但对应用程序来说,这些都无需考虑,但可以通过这个接口调节声卡播放时声音的大小等参数。 无论是Linux下还是Windows下,声卡的编程接口都是由声卡驱动提供的,而驱动都是会考虑到时间机制的,其表现形式就是当声卡驱动没有装好时,使用播放器播放多媒体文件时声音以极快的速度过去了,但是声卡驱动装好之后就很正常了,本文的音视频同步解决方案即以此为基础。 四、基于音频时间机制的音视频同步解决方案 与文件形式的多媒体不同的是,可视对讲中音视频流的源端是永远同步的。所以一种简单的解决方案是发送端启用独立的音频和视频线程,进行音视频采集,采集后只管往外发送数据,接收端接到数据就分别解码播放,从表面看,这种采用无同步机制多线程解决方案是可行的,但是忽略了一个问题,即音频数据包和视频数据包的大小。包的大小会影响网络传输的速度。这种差别在网络条件好的情况下显示不出来,一旦遇到网络拥塞或者其他情况就会变得很明显。 根据对音频采集和处理的叙述,我们知道,音频的采集是有时间机制的。比如采样率是8000,采样位数是8,我们就可以算出采8K字节的数据所用的时间是1s,这样音频就可以按照自己的速度播放;而摄像头每秒采集的帧数是相对固定的,如OV9650采集速度为平均每秒30帧,这样即可以算出1/30秒(约为0.03333,具体精度可以根据要求决定)刷新一帧图片,这种方式中只要保证源端音频视频的采集是同步的就可以,而门禁对讲过程中,这种同步是原生的。 发送端分别用线程采集音视频数据,采集的同时根据RTP协议的规定分别将这些数据打上时间戳,然后通过RTP底层协议(如UDP)发送出去。 接收端接收到音频数据,直接交给声卡播放,当前播放的音频包的时间戳时间传送给视频线程;接收到视频帧,则将其时间戳时间与当前播放的音频时间戳进行比较,若未达到参考时间,则解码播放;若达到参考时间,则说明该视频帧滞后,丢弃该视频帧,接收下一个视频帧,循环往复,直到线程接收到结束命令停止;以上述音频采样率和采样位数为例,视频参考时间的计算方法为(以C语言格式的?号表达式表示): 音频时间戳时间 +1/30> 视频时间戳时间+丢弃:播放; 在编程实现时,采集端和播放端的音频和视频可采用独立的线程,并利用Qt的信号槽机制实现音视频线程时间戳的传递,此处不再赘述。参考资料:http://www.afzhan.com/Tech_news/Detail/19523.html,  可以使用电子2113教室程序,比如红蜘蛛、极域、凌波等5261等多媒体电子4102教室程序。  1653都可以实现监控功能,演示。  多媒体电子教室是集成了多媒体技术和网络技术的一种信息化教学环境。它既能呈现出形式多样的教学内容,又能提供各类丰富的学习资源,能够支持学生的自主、合作、探究性学习活动。  其功能包括 :  1、广播。2、分组教学。3、语音教学。4、监控。5、演示。6、黑屏。7、电子白板。8、联机讨论。9、网上影院。10、文件传输。11、远程信息。12、远程配置。13、设置。14、远程开机、关机,很多摄像机本身就提供音视频同步功能,如果你用2113的监控主机的话,基本上的都能实现,但国5261产有些主机也4102不行;如果是采集卡1653的话,就要在电脑软件上面设置了,但以目前的情况而言,采集卡基本上已经逐渐淘汰了,毕竟用电脑当主机,不稳定,易受病毒等的干扰,而且断电后监控图像也无法保存!所有如果你现在要安装,还是建议你用品牌主机了!本回答被提问者采纳,看你采用的是什么方案了,如果是DVR的话,正常施工就可以同步。如果是采集卡的,有些采集卡要在软件里设置内容来自www.book1234.com请勿采集。

声明:以上内容并不代表本网赞同其观点。如有任何问题,请与不良与违法信息举报中心联系:513175919@qq.com。

www.book1234.com true http://www.book1234.com/q/20200915/20200915A02JZU00.html report 81661
娱乐时尚
  • 监控音视频同步如何实现?
  • 直播、互动直播、实时音视频、旁路直播有什么区别
  • 会议平板和电子白板有什么区别,哪个更具优势?
  • 电子白板可以作为音乐课的导入教学辅助工具吗
  • 音视频会议系统解决方案
  • 会议平板和电子白板的区别在哪里?
  • 如何把手机的音视频实时同步到智能电视上
  • 电脑白板音频视频不能同步
  • 通过录播系统进行远程互动的时候,经常发生网络卡...
  • 请高手帮我解决手机通过蓝牙与电视同步音频和视频方法
  • 历史文化
    真视界
    旅游美食
    精彩图文
    我爱我车
    母婴健康
    关于本站 | 广告服务 | 手机版 | 商务合作 | 免责申明 | 招聘信息 | 联系我们
    Copyright © 2004-2018 book1234.com All Rights Reserved. 布客网 版权所有
    京ICP备10044368号-1 京公网安备11010802011102号