3.0 OnFirstRemoteVideoFrameDrawn 远端用户的第一帧视频帧显示时触发这个消息。3.0 OnFirstLocalVideoFrameDrawn 预览开始显示第一帧视频帧时触发这个消息。3.0 OnFirstVideoPacketSend 视频首包发送回调。3.0 OnFirstVideoPacketReceived...
public void onRemoteTrackAvailableNotify(String uid,DingRtcAudioTrack audioTrack,DingRtcVideoTrack videoTrack)该回调在以下场景会被触发 onFirstRemoteVideoFrameDrawn:远端用户的第一帧视频帧显示时触发这个消息。public void ...
若不上传封面,则使用视频的第一帧作为视频封面。图片建议长宽比为16:9,支持JPG、JPEG、PNG、GIF格式且大小在1M以内。视频来源:支持视频链接或上传视频。视频链接:添加视频的链接。视频将在您的浏览器中播放,请确保网络畅通。上传视频...
3.0 onFirstRemoteVideoFrameDrawn 远端用户的第一帧视频帧显示时触发这个消息。3.0 onFirstLocalVideoFrameDrawn 预览开始显示第一帧视频帧时触发这个消息。3.0 onAudioVolumeIndication 远端用户音量提示回调。3.0 onUserAudioMuted 远端...
2.1 onFirstRemoteVideoFrameDrawn 远端用户的第一帧视频帧显示时的回调。2.1 onFirstLocalVideoFrameDrawn 预览开始显示第一帧视频帧时的回调。2.1 onAudioSampleCallback 订阅的音频数据回调。2.1 onPlaybackAudioFrameBeforeMixing 混音...
视频对象链接到视频第一帧的缩略图。CreateTime String 1527410977000 扫描时间。Bucket String uc-image 资源所在的OSS Bucket。Object String post/image/eae1722368b6951ac05cfb68b1cdeb03.jpg OSS Object名称。Score Float 90.9 资源的...
taskPath为导入视频的地址,通常为本地媒体资源导入或草稿箱导入/2.预览视图:设置预览视图后,编辑过程中,每一个操作都会实时地展示在一个预览视图上 UIView*preview=xxx;3.实例化 AliyunEditor*editor=[[AliyunEditor alloc]...
预览控制 在视频编辑过程中,提供一系列对当前视频的播放控制操作,如播放、暂停、获取当前时长等。代码中需要使用的参数详情,请参考接口文档。接口链接请参见 相关类功能。播放控制/获取预览播放器 id<AliyunIPlayer>player=[editor ...
秒开是指视频播放后,肉眼看到的第一帧画面所等待的时间。本文介绍在不同端上秒开的支持情况。秒开主要依靠云端服务的优化以及播放器的配合,使用阿里云的秒开功能最快可以实现200ms左右的首屏打开速度。App端 因HTTP-FLV使用广泛,且协议...
ListVideoFrames 获取一个视频的帧信息。ListVideos 获取多个视频的信息。ListVideoTasks 列出视频类异步任务。OpenImmService 开通智能媒体管理服务。OpenService 开通服务。ParseQuery 解析查询语句。PutProject 创建一个项目。...
如果不传该值,默认只会检测GIF图的第一帧、长图会压缩后检测。说明 interval 需要与 maxFrameNum 参数组合使用。例如,设置 interval 为2,maxFrameNum 为10,在检测GIF图、长图时,将每2帧检测1张图,最多检测10张图,计费则按照实际检测...
生活物联网平台提供Linux版本的Link Visual设备端SDK,您可以基于该SDK开发Link Visual视频设备的直播、点播、语音对讲、抓图等功能。前提条件 请您先完成Link Visual Demo体验,以提前熟悉整体流程。体验Link Visual请参见 快速体验Link ...
默认只会检测GIF图、长图的第一帧,interval 参数用于指示后台在检测时可按照该间隔跳着检测,以节省检测成本。说明 interval 需要与 maxFrames 参数组合使用。例如,设置 interval 为2,maxFrames 为100,在检测GIF图、长图时,将每间隔1...
在一个视频的第2秒~100秒叠加2张图片,示例如下:说明 输出视频指最终合成的成片视频。单视频叠加 当 TimelineIn 不设置时,默认从0开始。当 TimelineOut 不设置时,默认到视频的尾部。当 TimelineOut 超过视频尾部(对单视频来说,即视频...
默认只会检测GIF图、长图的第一帧,interval 参数用于指示后台在检测时可按照该间隔跳着检测,以节省检测成本。说明 interval 需要与 maxFrames 参数组合使用。例如,设置 interval 为2,maxFrames 为10,在检测GIF图、长图时,将每间隔1帧...
默认只会检测GIF图、长图的第一帧,interval 参数用于指示后台在检测时可按照该间隔跳着检测,以节省检测成本。说明 interval 需要与 maxFrames 参数组合使用。例如,设置 interval 为2,maxFrames 为100,在检测GIF图、长图时,将每间隔1...
RTCPeerConnection启动ICE建连流程以及后续的DTLS流程,媒体通道建立成功后可以获取到直播服务输出的媒体流,实现WebRTC标准接入拉流播放。断开连接。客户端需要断开连接停止推流或播放,使用DTLS的Alert消息表达。H5 Demo示例/Create peer...
2.1 OnFirstLocalVideoFrameDrawn 预览开始显示第一帧视频帧时的回调。2.1 OnFirstAudioPacketSend 音频首包发送的回调。2.1 OnFirstAudioPacketReceived 音频首包接收的回调。2.1 OnFirstRemoteAudioDecoded 已解码远端音频首帧的回调。2....
如果设置的截图时间t超过了视频时长,则返回视频的最后一帧。说明 如果需要截取视频封面,则t设置为0。[0,视频时长]单位:ms w 指定截图宽度,如果指定为0,则根据截图高度与源视频高度比例自动计算。[0,视频宽度]单位:像素(px)h 指定...
JPG、PNG、GIF 视频合拍 视频合拍从产品功能层面看,就是两路视频(一路来自样本视频,一路来自设备摄像头采集),按照指定的布局模式(左右分屏,上下分屏,画中画等)进行合成,合成出来的视频每一帧画面将会同时包含两路视频的画面,而...
JPG、PNG、GIF 视频合拍 视频合拍从产品功能层面是指两路视频(一路来自样本视频,一路来自设备摄像头采集)按照指定的布局模式(左右分屏、上下分屏、画中画等)进行合成,合成的视频每一帧画面将会同时包含两路视频的画面,而合拍视频的...
云剪辑 AI处理 点播提供了智能封面、视频DNA、智能视觉等AI处理能力,深度解读视频的每一帧,全方位挖掘结构化信息,为零算法基础的开发者和企业提供定制化的模型训练能力,应用与各种场景可前往 视频AI线上体验馆 进行体验。效果样例如下...
有两种媒体类型处于这种状态:新的媒体:第一次生成一个媒体(第一次触发媒体工作流执行)时,工作流还处于执行中,这个时候媒体就处于“初始“状态。只要媒体工作流执行完成,就会变更为一个确切状态(根据媒体工作流的配置来设置)。删除...
audio_nb_samples int 音频一帧包含的sample数。audio_sample_rate int 音频采样率,当前仅支持44100 Hz和48000 Hz。audio_channels int 音频通道数。timestamp int64_t 时间戳。sei alirts_sei_info_t*SEI信息。alirts_push_info_t:推流...
短视频SDK提供视频合拍功能,使用一个已有视频作为样本视频,与摄像头采集的数据按照特定的布局方式(例如左右分屏,上下分屏,画中画等)进行合拍录制,合拍视频的每一帧画面将会同时包含两路视频的画面,而音频则采用样本视频的音频。...
短视频SDK提供视频合拍功能,使用一个已有视频作为样本视频,与摄像头采集的数据按照特定的布局方式(例如左右分屏,上下分屏,画中画等)进行合拍录制,合拍视频的每一帧画面将会同时包含两路视频的画面,而音频则采用样本视频的音频。...
虽然视频的帧率越高画面流畅感越强,但是帧率超过每秒30帧后,人眼就无法识别出画面的效果,帧率增加也会增加视频传输的带宽成本,建议您合理设置视频的参数。服务端 为了保证视频的秒开以及降低视频的卡顿,服务端默认会缓存4秒左右的数据...
合拍视频的每一帧画面将会同时包含两路视频的画面,而音频则采用样本视频的音频。视频合拍是基础录制的功能升级,相比基础录制,视频合拍增加了一个新的本地视频轨道。版本支持 版本 是否支持 专业版 支持 标准版 支持 基础版 不支持 概念...
目录 数据类型 描述 rts_frame 封装音频帧和视频帧的信息类型。rts_golbal_config_t 全局配置。rts_log_config_t 日志配置。rts_config_t 推流相关配置。rts_stream_config_t 音视频相关配置。rts_event_handler_t 事件回调配置。详情 rts_...
DingRtcStatsNoPublish 1:未推流状态,可能是因为:已设置停止推送媒体流。推送媒体流失败。DingRtcStatsPublishing 2:推流链接建立过程中。DingRtcStatsPublished 3:推流成功。DingRtcSubscribeState:订阅状态。枚举名 描述 ...
高级配置 视频帧率告警阈值:当监播流的视频帧率帧率告警阈值*直播流原始帧率,则会报警。此阈值为比例系数,取值范围(0.0,1.0]。音视频码率告警阈值:当监播流的音视频码率>码率告警阈值*直播流原始码率,则会报警。此阈值为比例系数,...
返回说明 返回1表示读入frame一帧。返回0表示稍后再试。返回-1表示EOF。返回除1、0、-1以外的负数表示其他致命错误。说明 如果返回值为1,返回的frame需要调用者释放。释放的示例代码如下所示:struct rts_frame*f=NULL;int r=_rts_funcs->...
rts_frame 封装音频帧和视频帧的信息类型。rts_glue_funcs 函数指针。pusher_delay 推流延时信息。player_delay 拉流延时信息。详情 rts_worker_demux_info:媒体信息。struct rts_worker_demux_info { int audio_flag;int audio_channels;...
是 vfts 视频时间戳(1秒内最后一帧的时间戳)。是 vfdropped 视频每秒丢帧数。是 afcnt 音频帧率。是 afts 音频时间戳(1秒内最后一帧的时间戳)。是 afdropped 音频每秒丢帧数。是 wait 应用层堆积数。是 first_frame_duration 首帧时间...
视频校色 输入一组视频,输出一组调色后的视频。可根据视频之间的相似性进行关联调色。SDR转HDR 可将普通SDR视频转化为HDR视频,色域提升至BT2020,色深提升至10bit,亮度提升至最高1000nit,以提供更高品质的视频内容。视频生成 通用视频...
视频帧率 帧率随源:若帧率在限制范围内,按源帧率输出,超过上限按上限输出,低于下限按下限输出 固定帧率:输出指定的视频帧率,单位:FPS。数值低于或等于输入帧率。视频码率 码率随源:若码率在限制范围内,按源码率输出,超过上限按...
控制台 视频直播支持查看直播流的基本信息、不同时刻的视频帧率和音频帧率、不同时刻的码率,您可以在 视频直播控制台 的 直播管理>流管理 页面,单击 流监控 查看。API 接口 描述 参考文档 DescribeLiveDomainFrameRateAndBitRateData ...
视频帧标记 单击右侧标题处的 视频帧标记,可使用视频帧标记组件。单击 添加帧标记 或双击视频下方时间轴会出现弹窗,进行答题后添加新的帧标记。答题的结果会显示在右侧答题区及下侧时间轴区域。悬停在右侧答题区的题目上,或双击时间轴中...
该模式下SDK推竖屏流,始终以设置的分辨率宽和高中较小的值作为输出视频的宽,较大值作为输出视频的高 AliEngineVideoEncoderOrientationModeFixedPortrait 2:横屏模式。该模式下SDK推横屏流,始终以设置的分辨率宽和高中较大的值作为输出...
视频默认1秒截取一帧,您可以自行控制截帧频率。收费按照视频的截帧数量以及每一帧的检测场景计算。举例:1分钟的视频截帧60张,检测色情(对应场景参数porn)和暴恐涉政(对应场景参数terrorism)2个场景,收费按照60张色情+60张暴恐涉政...