音视频技术开发周刊 72期

  • 时间:
  • 浏览:1

构建服务器端渲染(SSR)亲戚亲戚当当我们 可能够够利用vue-server-renderer 插件更简单的构建SSR。

角度多目标跟踪算法综述

多伦多大学的研究人员提出Reversible RNN,你这名 可能够够减少RNN训练时内存需求的新土法子,在保留模型性能的一起,将激活内存成本降低了10-15倍。

接口变更: AVStream的codec参数被codecpar参数所替代 AVCodecContext *codec变为AVCodecParameters *codecpar av_register_all被弃用 换成av_demuxer_iterate() const AVInp...

角度神经网络加速与压缩

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/vn9PLgZvnPs1522s82g/article/details/83305954

Hulu直播服务难点解析(三):关键收获

ADPCM编解码原理及其代码实现

开源!OpenCV预训练模型库

不可能 你计划在WebRTC含晒 多个参与者,那末最终不可能 会使用选泽性转发单元(SFU)。webrtcHacks的撰稿人 Alex Gouaillard和他的CoSMo Software团队组建了另一一另一个 负载测试套件来测量负载与视频质量,并发布了所有主要开源WebRTC SFU的结果。LiveVideoStack对原文进行的摘译。

在本文中,亲戚亲戚当当我们 将深入探索角度神经网络加速与压缩的最新研究进展。具体而言,本文将你这名 土法子分成以下六类,即网络剪枝、低秩分解、网络量化、知识迁移网络、紧凑网络设计,并讨论它们的优缺点。

架构

Web H5视频滤镜的“百搭”解决方案——WebGL着色器

刚落幕的LiveVideoStackCon 2018音视频技术大会上,Akamai媒体业务群首席架构师William Law通过主题演讲介绍了何如通过分块编码和分块传输CMAF,为观众提供极低延迟的视频直播服务。本文由Akamai整理,并授权LiveVideoStack发布。

H264裸流分析

音频/视频技术

【NIPS 2018】多伦多大学提出可逆RNN:内存大降,性能不减!

利用Webpack4搭建Vue服务器端渲染SSR

Android FFmpeg视频转码并保存到本地

编解码

英特尔提供了一套基于VA-API/Media SDK的硬件加速方案,通过在FFmpeg中集成Intel GPU的媒体硬件加速能力,为用户提供更多的收益。本文来自英特尔资深软件开发工程师赵军在LiveVideoStackCon 2017大会上的分享,并由LiveVideoStack整理而成。

libVLC 提取视频每一帧

视频滤镜,顾名思义,是在视频素材上duang特效的你这名 操作。随着H5页面越做越炫酷的趋势,单一的视频播放不可能 那末满足亲戚亲戚当当我们 的需求,视频滤镜在Web页面上的应用那末广泛。

基于OpenSSL的HTTPS通信C++实现

Android平台下的音频渲染在java层有另一一另一个 API,分别是MediaPlayer、SoundPool和AudioTrack。AudioTrack是较底层的接口,只支持裸数据即PCM数据,对于另一一另一个 压缩的音频数据,都要先解码成pcm数据。

对另一一另一个 视频服务平台,通过上传获得的视频源千差万别,有高清的影视片源、UGC视频以及推拉过来的直播流等。平台直接将你这名 视频整理出去不可能 位于诸多问题图片图片,类似视频源码率过高 、视频质量差、视频参数不合理、视频格式不被播放器支持等等,此时就会启动转码为用户提供优化的、规范化的视频流。

一文了解视频转码你这名 事儿

HTTPS是以安全为目标的HTTP通道,简单讲是HTTP的安详细。即HTTP下加入SSL层,HTTPS的安全基础是SSL,而且加密的详细内容就都要SSL。Nebula是另一一另一个 为开发者提供另一一另一个 快速开发高并发网络服务系统系统进程或搭建高并发分布式服务集群的高性能事件驱动网络框架。

音视频技术开发周刊』由LiveVideoStack团队出品,专注在音视频技术领域,纵览相关技术领域的干货和新闻投稿,每周一期。点击『阅读原文』,浏览第72期内容,祝您阅读愉快。

谁是最好的WebRTC SFU?

FFmpeg在Intel GPU上的硬件加速与优化

Android 音频渲染之AudioTrack

本文讲述在Android中, 何如将FFmpeg视频转码为YUV格式并保存到本地。

AI智能

在上周落幕的LiveVideoStackCon音视频技术大会,阿里云高级技术专家周源进行了《视频加密和DRM的实施实践》专题分享。周源,有十多年音视频研发经验,也不在淘宝视频负责开放平台,目前在阿里云视频云部门负责媒体解决,在大规模系统建设和云计算方面详细后会非常丰厚的实战经验。本文为演讲原文,由云栖社区整理,并授权LiveVideoStack转发。

基于描述生成逼真图像是一项比较困难的任务。本文介绍了一项新研究 Transparent Latent-space GAN (TL-GAN),它使用英伟达的 pg-GAN 模型,利用潜在空间中的形态学 轴,轻松完成图像合成和编辑任务。

本文详细讲解 0x0011 /* Intel’s DVI ADPCM */的编码解码原理。

基于角度学习的算法在图像和视频识别任务中取得了广泛的应用和突破性的进展。从图像分类问题图片图片到行人重识别问题图片图片,角度学习土法子相比传统土法子表现出极大的优势。与行人重识别问题图片图片紧密相关的是行人的多目标跟踪问题图片图片。

OpenCV 的 GitHub 页面含晒 另一一另一个 称为「open_model_zoo」的资源库,里面含晒 了几瓶的计算机视觉预训练模型,并提供了下载土法子。使用你这名 免费预训练模型可能够够帮助你加速开发和产品部署过程。

FFmpeg(4.0.2)解码H264

AVFoundation系列五:关于音视频的导出

Hulu在其博客发布了建立直播服务遇到的挑战及解决方案,这对于也不只提供点播服务的系统而言是一次彻底的升级。LiveVideoStack对原文进行了摘译。本文是系列文章的第三篇。

周源:视频加密和DRM实施实践

1 SPS和PPS从何处而来? 2 SPS和PPS中的每个参数起你这名 作用? 3 何如解析SDP含晒 晒 的H.264的SPS和PPS串?客户端抓包 在做客户端视频解码时,一般后会使用Wireshark抓包工具对接收的H264码流进行分析。

DVD 电影中的场景、从 YouTube 下载的剪辑、通过网络摄像头拍摄的内容......无论是视频还是动画,详细后会由一系列静止的图像组成。而且,你这名 图像会另一一另一个 接另一一另一个 的播放,我想要的眼睛误以为物体在移动。图像的播放波特率太快了 了 ,动作看起来越流畅,画面也越逼真。

RTSP协议 SDP

在音视频导出中重要的而且:AVAssetExportSession,早在 AVFoundation系列一:AVAsset的使用土法子 中的Demo中就不可能 使用过AVAssetExportSession进行了音视频的分离,合成。简单的导出亲戚亲戚当当我们 不可能 使用了。而且对于更高的导出需求,请使用AVAssetReader和AVAssetWriter类。

定制人脸图像没那末难!使用TL-GAN模型轻松变脸

William Law:CMAF何如支持的超低延迟视频直播

RTSP被用于建立的控制媒体流的传输,它为多媒体服务扮演“网络远程控制”的角色。尽管有时可能够够把RTSP控制信息和媒体数据流交织在一起传送,但一般请况RTSP你这名 不会说用于转送媒体流数据。媒体数据的传送可通过RTP/RTCP等协议来完成。

图像