《電子技術應用》
您所在的位置:首頁 > 其他 > 設計應用 > 支持MBAFF的H.264/AVC解碼器運動矢量預測模塊設計
支持MBAFF的H.264/AVC解碼器運動矢量預測模塊設計
包 磊,周開倫,林 濤
(同濟大學 超大規模集成電路研究所,上海 200331)
摘要: 分析了宏塊自適應幀場模式(MBAFF)在P幀和B幀的幀間預測算法,提出了可行的數據組織結構和硬件實現方法。作為完整的解碼器的一部分,其RTL代碼已經完成了功能驗證和仿真,證明該設計是行之有效的。
Abstract:
Key words :

摘  要: 分析了宏塊自適應幀場模式(MBAFF)在P幀和B幀的幀間預測算法,提出了可行的數據組織結構和硬件實現方法。作為完整的解碼器的一部分,其RTL代碼已經完成了功能驗證和仿真,證明該設計是行之有效的。
關鍵詞: H.264;MBAFF;幀間預測;運動矢量預測

  H.264/AVC支持3種圖像編碼模式:幀模式、場模式和宏塊自適應幀場(MBAFF)[1]模式。在幀模式下,1幅圖像被劃分成由16×16宏塊組成的幀;在場模式下,1幀圖像的頂場和底場被劃分成由16×16宏塊組成;在MBAFF模式下,幀場編碼的選擇在宏塊級指定,1幀圖像被劃分成由32×16的宏塊對組成,每2個宏塊組成的宏塊對以幀模式或者場模式編碼。一段圖像可能既有動態的區域又有靜態的區域,H.264的MBAFF模式可以根據圖像的每個區域選擇最佳的編碼模式。一般來說,MBAFF模式對于視頻編碼的效率比其他兩種模式更好,但編碼和解碼的復雜度也更高。本文將探討在解碼的過程中MBAFF模式在P幀和B幀的幀間預測算法和硬件設計。
1 幀間預測技術
  在進行幀間預測時,空間上距離較近的圖像區域往往具有相關性很強的運動矢量,而且相對于以前視頻壓縮標準中最小8×8的劃分,H.264最小4×4的劃分使得較小的圖像區域的運動矢量具有更高的相關性,因此,可以利用預測技術預測出1組運動矢量MVp,而編碼器只需要傳送能量很小的實際值和預測值的差值,也就是運動矢量殘差MVd,這樣就可以提高編碼效率。在解碼時,解碼器只需要采用同樣的算法先預測出運動矢量的預測值MVp,而后將其與殘差MVd相加便可以恢復出運動矢量的實際值MV[1]供運動補償使用。MVp[1]取決于運動補償的尺寸和鄰近MV的有無。
  在幀間預測模式下,宏塊有16×16、16×8、8×16、8×8、8×4、4×8、4×4這7種運動矢量的分割方法。為方便描述,把參考宏塊相應分割的運動矢量命名為MVLXN[2],參考索引命名為refIdxLXN[2],其中N可以為A、B、C、D,分別表示當前宏塊或者宏塊分割的左邊、上邊、右上和左上的相應宏塊分割。當前宏塊分割的運動矢量MVpLX[2]就是通過MVLXN和refIdxLXN預測得到的。圖1所示為非MBAFF模式時當前宏塊分割為16×16的情況,E為當前宏塊或宏塊分割,A、B、C分別為E的左、上、右上方的3個相對應分割塊。如果E的左邊不止1個分割,則取其中最上的1個為A;上方不止1個分割時,取最左邊1個為B。


1.1 預測運動矢量MVp的計算
  在宏塊分割為16×16、8×8、8×4、4×8和4×4時,運動矢量的預測值是由參考宏塊分割A、B、C的運動矢量計算得到的:
  (1)如果分割B和C不可用,而分割A可用,則會對MVLXB、MVLXC、refIdxLXB、refIdxLXC重新賦值:MVLXB=‘MVLXA、MVLXC=MVLXA、refIdxLXB=refIdxLXA、refIdx-LXC=refIdxLXA。
  (2)根據refIdxLXA、refIdxLXB和refIdxLXC的取值計算mvpLX:
  ①如果分割A、B、C的參考索引refIdxLXA、 refIdxLXB或refIdxLXC中的一個等于當前分割的索引號refIdxLX,則當前分割的矢量預測值由相應分割的運動矢量得到:MVpLX=mvLXN。
  ②如果分割A、B、C的參考索引refIdxLXA、 refIdxLXB或refIdxLXC都不等于當前分割的索引號refIdxLX,則通過取A、B、C的運動矢量中值得到:
  MVpLX[0]=Median(MVLXA[0],MVLXB[0],MVLXC[0])
  MVpLX[1]=Median(MVLXA[1],MVLXB[1],MVLXC[1])
  運動矢量的預測在當前宏塊分割為16×8和8×16的時候會先做如下的判斷,如果不滿足則通過上述取中值的方法得到預測值:
  (1)對于1個宏塊被分割成2個16×8子宏塊的情況
  ①計算mbPartIdx等于0的子宏塊如圖2(a)所示。如果refIdxLXB等于當前分割的refIdxLX,則當前塊的矢量預測值由B宏塊的相應分割的矢量得到:MVpLX= MVLXB。


  ②計算mbPartIdx等于1的子宏塊如圖2所示,如果refIdxLXA等于當前分割的refIdxLX,則當前塊的矢量預測值由A宏塊的相應分割的矢量得到:MVpLX=MVLXA。
  (2)對于1個宏塊被分割成2個8×16子宏塊的情況:
  ①計算mbPartIdx等于0的子宏塊如圖2(b)所示。如果refIdxLXA等于當前分割的refIdxLX,則當前塊的矢量預測值由B宏塊的相應分割的矢量得到:MVpLX=MVLXA。
   ②計算mbPartIdx等于1的子宏塊如圖2(b)所示,如果refIdxLXC等于當前分割的refIdxLX,則當前塊的矢量預測值由C宏塊的相應分割的矢量得到:MVpLX=MVLXC。
1.2 參考宏塊分割的運動矢量MVLXN和參考索引refIdxLXN的計算
  在計算參考宏塊分割A、B、C的運動矢量MVLXN和參考索引refIdxLXN之前,應先檢測分割C是否可用,如果C不可用,則用分割D的信息代替。A、B、C的運動矢量MVLXN和參考索引refIdxLXN的計算:
  (1)如果宏塊mbAddrN不可用或者宏塊mbAddrN為幀內編碼,或者mbAddrN相應分割或者子宏塊分割的predFlagLX等于0,則對MVLXN置0,對refIdxLXN置-1。
  (2)MVLXN為mbAddrN相應宏塊分割或者子宏塊分割的運動矢量,refIdxLXN為mbAddrN相應宏塊分割的參考索引值:
  MVLXN=MvLX[mbPartIdxN][subMbPartIdxN]
  refIdxLXN=RefIdxLX[mbPartIdxN]
  (3)在MBAFF模式時,需要對MVLXN和refIdxLXN再做1次計算:
  ①如果當前宏塊為場宏塊,而mbAddrN為幀宏塊,則:
  MVLXN[1]=MVLXN[1]/2
  refIdxLXN=refIdxLXN×2
  ②如果當前宏塊為幀宏塊,而mbAddrN為場宏塊,則:
  MVLXN[1]=MVLXN[1]×2
  refIdxLXN=refIdxLXN/2
1.3 空間相鄰參考宏塊分割的選擇[2]
  在非MBAFF模式時,當前宏塊的空間相鄰宏塊地址A、B、C、D的位置如圖3所示。空間參考宏塊mbAddrN可以是MbAddrA、MbAddrB、MbAddrC、MbAddrD或者CurrMbAddr。


  在MBAFF模式時,當前宏塊的空間相鄰宏塊地址A、B、C、D的位置如圖4所示。此時會根據當前宏塊是幀宏塊或者場宏塊currMbFrameFlag以及當前宏塊是頂宏塊或者底宏塊mbIsTopMbFlag來計算1個中間值mbAddrX,并根據mbAddrX的幀場信息mbAddrXFrameFlag來得到最終的參考宏塊MbAddrN。參考宏塊mbAddrN可以是MbAddrA、MbAddrA+1、MbAddrB、MbAddrB+1、MbAddrC、MbAddrC+1、MbAddrD、MbAddrD+1、CurrMbAddr或者CurrMbAddr-1。
  參考分割A、B、C、D取自參考宏塊mbAddrN,也可能來自當前宏塊的空間相鄰宏塊或可能是當前宏塊內已解碼的分割。
1.4 運動矢量預測所需數據的組織
  運動矢量的預測需要當前分割的左邊、上邊、左上和右上相應分割的MVLXN和refIdxLXN信息來計算得到當前分割的MVLX。如果宏塊的4個子宏塊都采用4×4分割,則1個宏塊有16個運動矢量,即每個4×4 block有1個運動矢量。這樣需要儲存每個block的運動矢量和參考索引。1個宏塊需要存儲16個block的運動矢量MVLX和參考索引refIdxLX,當采用其他分割類型時,每個分割內所有block的運動矢量和參考索引為相同值。
   幀間預測按照block存儲和使用數據。當前宏塊分割的運動矢量和參考索引需要按照block來存儲以用于后面宏塊的預測。每個分割內所有block的運動矢量和參考索引為相同值,所以參考分割的MVLXN和refIdxLXN的引用也可以按照block來進行。
  因為同一分割內所有block的運動矢量和參考索引為相同值,因此,參考分割的MVLXN和refIdx-LXN也就是參考宏塊相應的block的MVLX和refIdx-LX。圖5為非MBAFF模式時預測當前分割的運動矢量的示意圖。由圖可見,在進行預測時是通過與當前分割最接近的左、上、左上以及右上的4個4×4 block的運動矢量來對當前的運動矢量進行預測的。圖5(a)~(d)分別表明了當前宏塊采用不同劃分時A、B、C、D 4個參考塊的取值情況。在預測時一般選取A、B、C塊對當前的運動矢量進行預測,當C不可用時則選用A、B、D進行預測。在MBAFF模式時,由于參考宏塊的位置不同(參見1.3節)會作相應變化。

2 直接預測模式和硬件設計
  H.264/AVC對運動矢量的重建引入了直接預測模式,在該模式下運動矢量殘差沒有被傳送,只有宏塊的預測模式會被傳送。解碼器根據預測模式以及其余宏塊的信息對當前的運動矢量進行恢復。運動矢量的重建流程如圖6所示。在直接預測模式下,H.264分別采用3種不同的方式對運動矢量進行重建。


  (1)復制模式。在P類型的宏塊中,利用空間上相鄰分割的運動矢量對當前的運動矢量進行預測。
  (2)空間模式。在B類型的宏塊中,利用空間上相鄰分割的運動矢量對當前的運動矢量進行預測。
  (3)時間模式。在B類型的宏塊中,通過將時間上相鄰而且在空間上位置相同的8×8分割的運動矢量進行重量化來預測出當前的運動矢量。
  其中復制模式和空間模式在算法上具有一定的相似性,差別在于復制模式只需要重建1個方向的運動矢量,而空間模式需要重建雙向的運動矢量。
2.1 空間模式及復制模式重建算法和硬件設計
    在這2種模式下:(1)宏塊只能劃分成1個16×16分割或者4個8×8分割。在劃分成4個8×8時,每1個8×8分割可以獨立地被設置成直接模式或者ReadMV模式;(2)計算當前的運動矢量需要借助在空間上相鄰分割的運動矢量來對當前分割的運動矢量進行重建。此時運動矢量的預測算法與前面介紹的預測運動矢量的算法基本相同,所不同的是此時宏塊中的任意1個分割預測時所使用的相鄰塊信息均由圖7所示的A、B、C、D 4個塊預測。

  Direct 8×8用A、B、C、D 4個塊進行預測。預測的基本算法流程如圖8所示。由圖可見,在預測時首先檢測參考塊C是否可用,如不可用,則C塊的參數用D塊的參數代替;而后利用A、B、C塊的參考索引RefIdxA[f/b]、RefIdxB[f/b]、RefIdxC[f/b]中大于0的最小值來預測出當前分割的參考索引號ReFrame[f/b],如果RefIdxA[f/b]、RefIdxB[f/b]、RefIdxC[f/b]全部小于0,則ReFrame[f/b]取-1;然后用ReFrame[f/b]與A、B、C塊的參考索引進行對比,如果ReFrame[f/b]只是A、B、C其中的1個,現令其為SelectedBlk的索引號相同,則當前分割的運動矢量中,(MVx,MVy)取SelectedBlk的(MVxS,MVyS);否則取A、B、C塊運動矢量的中值。


  在空間模式及復制模式下,需要使用空間上相鄰的上邊及左邊的4×4塊的運動矢量信息來對空間模式、復制模式中的運動矢量以及ReadMV模式中的MVp進行計算。針對非MBAFF模式和MBAFF模式所需要的block的運動矢量信息分析如下:
  (1)在非MBAFF模式時,硬件實現需要維持1個4×4 block行,以及當前待解碼宏塊的左邊4個block列的運動矢量信息。解碼器如果需要支持1 920×1 280分辨率視頻流的解碼,則就要存儲(1 920/4+4+1)=485個4×4 block的運動矢量信息,如圖9所示。

  (2)在MBAFF模式時,由于宏塊對的出現使得所需要的block信息相比非MBAFF模式的情況更加復雜。硬件實現時需要維持2個4×4 block行,以及當前待解碼宏塊的左邊宏塊對的8個block列的運動矢量信息。解碼器如果需要支持1 920×1 280分辨率視頻流的解碼,則就要存儲(2×(1920/4)+8+1)=969個4×4 block的運動矢量信息,如圖10所示。


    設計中將這部分信息存放在片內SRAM中。此外,為了便于讀取以及節省存取時間,設計中將1個block的運動矢量信息存放于SRAM 1個地址單元中。1個地址單元的數據結構需要存放前向參考索引RefIdxF、后向參考索引RefIdxB、前向水平運動矢量MVxF、前向垂直運動矢量MVyF、后向水平運動矢量MVxB、后向垂直運動矢量MVyB。
    通過以上分析在硬件實現時采用如圖11所示的結構對該模塊進行設計。設計中使用1個Local Sram作為1個Line buffer來對空間模式及復制模式下需要使用到的空間上相鄰塊的運動矢量信息進行存儲。當該模塊被啟動后,根據輸入的當前宏塊的預測模式以及當前宏塊的位置信息,地址生成器根據當前宏塊的信息產生相應的地址以及控制信號從Local Sram中取出A、B、C、D 4個block的運動矢量信息傳送給MV idx計算模塊來計算當前分割的運動矢量,計算完畢后得出完成信號給地址生成器以便其產生相應的地址將解碼好的數據存回Local Sram中供后續解碼使用。


2.2 時間模式重建算法和硬件設計
  圖12所示為宏塊類型為B宏塊、預測模式為直接預測模式時采用時間模式對運動矢量進行重建的算法示意圖。


   由圖可見,時間模式運動矢量重建的步驟為:
  (1)當前待解的分割先在List[1][0]中找到與自己位置相對應的分割相應的、在List[0]中的參考圖像List[0][x],將該參考圖像作為當前分割的List[0]參考。
  (2)找出List[1][0]圖像中與當前分割位置相對應的分割指向List[0][x]的運動矢量MVCol[2]和參考索引refIdxCol[2]。
  (3)根據當前分割所在圖像與List[0][x]圖像的播放順序POC的差值tb[2]、List[0][x]與List[1][0]的POC的差值td[2],通過如下公式量化出當前分割指向List[0][x]圖像的運動矢量MVL0以及指向List[1][0]的運動矢量MVL1。
  tb=Clip3(-128,127,DiffPicOrderCnt(currPicOrField, pic0))
  td=Clip3(-128,127,DiffPicOrderCnt(pic1,pic0))
  tx=(16 384+Abs(td/2))/td
      DistScaleFactor=Clip3(-1024,1023,(tb*tx+32)>>6)
      MVL0=(DistScaleFactor*mvCol+128)>>8
      MVL1=MVL0-MVCol
     (4) 根據refIdxCol和當前圖像是幀或場圖像標志field_pic_flag以及當前宏塊是幀宏塊或場宏塊來計算refIdxL0:
     refIdxL0=((refIdxCol<0)?0:MapColToList0(refIdxCol))
     refIdxL1=0
     在非MBAFF模式時,圖像類型可以是FRM和FLD表示當前是幀或場;在MBAFF模式時,圖像類型以AFRM表示當前圖像是宏塊級幀場自適應。
     在MBAFF模式時,首先根據當前圖像類型PicCodingStruct(CurrPic)[2]和參考圖像類型PicCodingStruct(colPic)[2]來計算1個宏塊地址mbAddrX,然后再根據mbAddrX是否為場宏塊以及當前宏塊是否為場宏塊來計算出在List[1][0]中與當前分割位置相對應的宏塊mbAddrCol,最后得到其中相應宏塊分割mbAddrCol\mbPartIdxCol\subMbPartIdxCol的運動矢量MVCol和參考索引refIdxCol,MVCol和refIdxCol取值為mbAddrCol相應分割的前向或者后向運動矢量和參考索引。
  因此,對于已經解碼的圖像需要存儲每個宏塊的運動矢量、參考索引、宏塊類型(mbType、subMbType)和宏塊的幀場標志mb_field_decoding_flag[2],以用于當前圖像宏塊的運動矢量預測。
  時間模式下運動矢量重建的硬件實現框圖如圖13所示。設計中采用了空間模式以及復制模式硬件實現所用的Local Sram。這里還在Local Sram中開辟了一段新的存儲空間,用于存放所需要的圖像層信息。與空間及復制模式一樣,重建后的運動矢量信息寫回到Local Sram中供后續解碼使用。


  由運算公式可見時間模式下運動矢量的重建涉及乘法、除法、加法以及減法運算,這些運算對于硬件實現將會帶來很大的開銷,所以設計中將差值運算拆分成流水線的形式進行運算。
  本文介紹了H.264/AVC的宏塊自適應幀場模式在P幀和B幀的幀間預測算法,分析了運動矢量預測模塊的硬件實現,提出了可行的數據組織結構和硬件實現方法。
參考文獻
[1] 畢厚杰.新一代視頻壓縮編碼標準——H.264/AVC[J].北京:人民郵電出版社,2002.
[2] Advanced video coding for generic audiovisual services. ITU-T Recommendation H.264, May. 2005.

此內容為AET網站原創,未經授權禁止轉載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
亚洲欧美日韩综合aⅴ视频| 亚洲精品午夜| 亚洲电影观看| 国产亚洲欧美另类中文| 国产精品久久久免费| 欧美日韩国产综合新一区| 蜜桃av综合| 久久深夜福利| 久久国内精品视频| 欧美专区在线观看| 欧美一区二区在线免费观看| 亚洲永久免费视频| 亚洲一区在线免费| 亚洲在线成人精品| 亚洲男人的天堂在线aⅴ视频| 一区二区三区三区在线| 亚洲精品之草原avav久久| 亚洲国产日韩精品| 亚洲级视频在线观看免费1级| 久久精品123| 久久成人av少妇免费| 欧美在线免费| 久久精品人人做人人爽电影蜜月| 久久成人精品| 亚洲国产精品成人久久综合一区 | 亚洲精品免费一区二区三区| 亚洲国产成人午夜在线一区 | 亚洲黄色高清| 亚洲人成网站在线播| 亚洲每日更新| 亚洲午夜未删减在线观看| 亚洲——在线| 欧美一区国产二区| 亚洲国产成人在线播放| 亚洲人成网站精品片在线观看| 亚洲精品视频在线| 亚洲色在线视频| 亚洲一区二区黄色| 欧美伊久线香蕉线新在线| 久久精彩免费视频| 久久亚洲春色中文字幕| 欧美成人性生活| 欧美日韩精品不卡| 国产精品婷婷午夜在线观看| 国产日韩欧美在线观看| 黄色日韩网站| 91久久视频| 亚洲天堂成人在线视频| 欧美一区二区久久久| 亚洲国产美国国产综合一区二区| 99re亚洲国产精品| 亚洲自拍啪啪| 久久午夜精品一区二区| 欧美精品福利| 国产精品日韩久久久| 国外成人在线| 亚洲精品在线二区| 午夜亚洲影视| 日韩天天综合| 午夜在线成人av| 免费在线欧美黄色| 欧美网站大全在线观看| 国产亚洲免费的视频看| 91久久精品国产91久久性色| 亚洲网站在线观看| 亚洲国产欧美不卡在线观看| 亚洲欧美日韩视频一区| 亚洲精品国精品久久99热| 亚洲欧美激情一区二区| 麻豆成人在线播放| 欧美体内she精视频在线观看| 国产亚洲精品久久久| 亚洲人体影院| 久久国产福利国产秒拍| 亚洲免费激情| 久久精品国产成人| 欧美日韩另类丝袜其他| 国外成人性视频| 亚洲少妇自拍| 91久久精品一区| 欧美有码视频| 欧美日韩伦理在线免费| 精品电影在线观看| 亚洲网站视频| 亚洲美女精品成人在线视频| 久久国产精品99国产| 欧美人交a欧美精品| 狠狠爱成人网| 国产日韩一区欧美| 伊人天天综合| 亚洲欧美日韩国产一区二区三区| 亚洲毛片av在线| 久久久青草婷婷精品综合日韩| 欧美午夜不卡在线观看免费 | 亚洲黄色免费电影| 欧美伊人精品成人久久综合97 | 亚洲一区二区三区乱码aⅴ蜜桃女| 久久久久国色av免费观看性色| 欧美系列一区| 亚洲精品一二区| 亚洲破处大片| 久久人人97超碰精品888| 国产精品美女www爽爽爽| 日韩视频免费观看高清完整版| 亚洲国产精品久久| 久久精品国产精品亚洲| 国产欧美日韩不卡免费| 中文精品视频| 中日韩美女免费视频网址在线观看 | 国产精品久久久免费| 日韩午夜中文字幕| 亚洲另类黄色| 麻豆精品传媒视频| 精久久久久久| 亚洲先锋成人| 久久精品免费看| 国产精品久久久一区二区| 欧美激情亚洲自拍| 亚洲成色www8888| 亚洲一区二区三区视频播放| 一本色道久久综合亚洲精品高清| 欧美大片免费观看| 在线成人欧美| 亚洲国产精品一区二区第一页| 久久久久久尹人网香蕉| 国产日韩欧美在线播放| 欧美一区二区黄色| 久久久精品日韩| 国精品一区二区| 亚洲国产精品尤物yw在线观看| 久久在线免费| 亚洲成色精品| 亚洲六月丁香色婷婷综合久久| 欧美成人精品一区二区| 亚洲国产成人精品久久久国产成人一区| 亚洲第一福利在线观看| 久久一区欧美| 在线成人av.com| 亚洲激情一区二区三区| 欧美大片免费观看| 日韩视频不卡中文| 亚洲尤物视频网| 国产老肥熟一区二区三区| 午夜精品久久久久久久男人的天堂 | 在线日韩视频| 亚洲免费精品| 国产精品yjizz| 亚洲欧美国产三级| 久久久久www| 美女黄色成人网| 日韩视频不卡| 欧美经典一区二区| 99热免费精品| 欧美一区在线直播| 精品动漫一区二区| 亚洲精品一区二区在线| 欧美网站在线| 欧美一区二区三区精品电影| 免费一级欧美片在线观看| 亚洲久久一区| 香蕉成人啪国产精品视频综合网| 国产三级欧美三级| 亚洲国产三级| 欧美日韩在线免费视频| 欧美亚洲免费电影| 免费日韩av片| 在线视频你懂得一区二区三区| 欧美在线一区二区三区| 在线观看日韩www视频免费| 亚洲图片欧美午夜| 国产精品资源| 亚洲激情偷拍| 国产精品私人影院| 亚洲精品九九| 国产欧美激情| 99视频有精品| 国外成人性视频| 亚洲在线免费视频| 在线观看亚洲视频| 亚洲欧美日韩国产一区二区| 韩国av一区二区| 一区二区三区四区五区精品| 国产欧美精品一区二区色综合| 91久久精品视频| 国产美女高潮久久白浆| 亚洲久久一区| 国产欧美日韩视频在线观看| 亚洲另类在线一区| 国产午夜精品久久久久久免费视| 亚洲免费观看| 国产亚洲欧洲| 亚洲一区二区三区乱码aⅴ蜜桃女 亚洲一区二区三区乱码aⅴ | 欧美日韩精品在线| 欧美一区二区三区男人的天堂| 欧美日本韩国一区| 欧美一区二区在线播放| 欧美午夜片欧美片在线观看| 亚洲欧洲在线看| 国产一二精品视频| 亚洲欧美韩国|