時(shí)間:2021-08-09 01:10:37來(lái)源:中國(guó)傳動(dòng)網(wǎng)
轉(zhuǎn)載自《集成技術(shù)》
視頻數(shù)據(jù)爆炸式增長(zhǎng)給存儲(chǔ)和傳輸帶來(lái)了巨大的壓力和挑戰(zhàn),這迫切地需要快速、高效的視頻編碼方案。而下一代視頻編碼方法仍是采用憑統(tǒng)計(jì)經(jīng)驗(yàn)手工設(shè)計(jì)預(yù)測(cè)函數(shù)的編碼方案, 在一定程度上限制了編碼性能的提升。如何使用先進(jìn)的學(xué)習(xí)工具在給定帶寬的條件下最大化視頻質(zhì)量、提高壓縮效率成為了未來(lái)智能視頻編碼優(yōu)化的關(guān)鍵問(wèn)題。該文從計(jì)算機(jī)視覺(jué)和人工智能的角度出發(fā),將視頻編碼中的色度預(yù)測(cè)問(wèn)題模型化為計(jì)算機(jī)視覺(jué)中的圖像上色問(wèn)題,以進(jìn)一步消除顏色通道之間的冗余?;诰矸e神經(jīng)網(wǎng)絡(luò)的色度預(yù)測(cè)包含兩個(gè)子網(wǎng)絡(luò):亮度下采樣和色度預(yù)測(cè)。采用線性模型結(jié)果作為色度初始化以增強(qiáng)性能,采用量化參數(shù)來(lái)表征編碼失真消除壓縮噪聲影響。在編碼器設(shè)計(jì)過(guò)程中,為了取得更好的編碼性能,該文利用率失真優(yōu)化方法從傳統(tǒng)色度預(yù)測(cè)方法和所提出的方法中選擇代價(jià)最小的預(yù)測(cè)策略。
結(jié)果顯示,與現(xiàn)有傳統(tǒng)方法相比,該文方法在 Y、U、V 分量分別可以節(jié)省 4.28%、3.34% 和 4.63% 的網(wǎng)絡(luò)帶寬。
針對(duì)現(xiàn)有視頻編碼模塊中的局限性問(wèn)題,從計(jì)算機(jī)視覺(jué)和人工智能的角度出發(fā),實(shí)現(xiàn)了由信號(hào)處理領(lǐng)域問(wèn)題向人工智能領(lǐng)域問(wèn)題的轉(zhuǎn)變,以海量視頻 / 圖像數(shù)據(jù)為基礎(chǔ),研究結(jié)合神經(jīng)網(wǎng)絡(luò)模型的視頻編碼方法,最終實(shí)現(xiàn)智能視頻編碼優(yōu)化理論與方法的創(chuàng)新,預(yù)期成果能應(yīng)用于下一代視頻編碼標(biāo)準(zhǔn)及視頻壓縮的相關(guān)領(lǐng)域。
色度預(yù)測(cè)性能對(duì)比 ( 需要預(yù)測(cè)的塊位于右下角 )
中國(guó)傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:凡本網(wǎng)注明[來(lái)源:中國(guó)傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國(guó)傳動(dòng)網(wǎng)(www.surachana.com)獨(dú)家所有。如需轉(zhuǎn)載請(qǐng)與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來(lái)源“中國(guó)傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。
本網(wǎng)轉(zhuǎn)載并注明其他來(lái)源的稿件,均來(lái)自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請(qǐng)保留稿件來(lái)源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。
產(chǎn)品新聞
更多>2025-06-09
從外觀到內(nèi)核的「超進(jìn)化」!NK550M五軸...
2025-06-06
2025-05-19
2025-04-30
性能躍升20%!維宏NK300CX Plus數(shù)控系統(tǒng)...
2025-04-11
推薦專(zhuān)題
更多>