[x265] [PATCH] cleanup the labels in assembly code with trailing colon

yuvaraj at multicorewareinc.com yuvaraj at multicorewareinc.com
Thu Mar 6 11:43:01 CET 2014


# HG changeset patch
# User Yuvaraj Venkatesh <yuvaraj at multicorewareinc.com>
# Date 1394102558 -19800
#      Thu Mar 06 16:12:38 2014 +0530
# Node ID 317a94a3995b0312b00051f39b6d58dc738f9697
# Parent  889edfd2c4c33df368481bb161076da1dcdd8295
cleanup the labels in assembly code with trailing colon

diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/intrapred16.asm
--- a/source/common/x86/intrapred16.asm	Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/intrapred16.asm	Thu Mar 06 16:12:38 2014 +0530
@@ -218,7 +218,7 @@
     pextrw          [r6 + r1],     m0, 5
     pextrw          [r6 + r1 * 2], m0, 6
 
-.end
+.end:
     RET
 
 
@@ -355,7 +355,7 @@
     lea             r6,                  [r6 + r1 * 2]
     pextrw          [r6],                m3, 6
 
-.end
+.end:
     RET
 
 
@@ -1226,7 +1226,7 @@
     cmp         r4m, byte 23
     jnz        .load
     xchg        r2, r3
-.load
+.load:
     movu        m5, [r2 - 2]    ; [x x 4 3 2 1 0 x]
     palignr     m2, m5, 2       ; [x x x 4 3 2 1 0]
     palignr     m0, m5, 4       ; [x x x x 4 3 2 1]
@@ -1247,7 +1247,7 @@
     cmp         r4m, byte 22
     jnz        .load
     xchg        r2, r3
-.load
+.load:
     movu        m5, [r2 - 2]    ; [x x 4 3 2 1 0 x]
     palignr     m2, m5, 2       ; [x x x 4 3 2 1 0]
     palignr     m0, m5, 4       ; [x x x x 4 3 2 1]
@@ -1269,7 +1269,7 @@
     cmp         r4m, byte 21
     jnz        .load
     xchg        r2, r3
-.load
+.load:
     movu        m3, [r2 - 2]    ; [x x 4 3 2 1 0 x]
     palignr     m2, m3, 2       ; [x x x 4 3 2 1 0]
     palignr     m0, m3, 4       ; [x x x x 4 3 2 1]
@@ -1293,7 +1293,7 @@
     cmp         r4m, byte 20
     jnz        .load
     xchg        r2, r3
-.load
+.load:
     movu        m3, [r2 - 2]    ; [x x 4 3 2 1 0 x]
     palignr     m2, m3, 2       ; [x x x 4 3 2 1 0]
     palignr     m0, m3, 4       ; [x x x x 4 3 2 1]
@@ -1316,7 +1316,7 @@
     cmp         r4m, byte 19
     jnz        .load
     xchg        r2, r3
-.load
+.load:
     movu        m6, [r2 - 2]    ; [- - 4 3 2 1 0 x]
     palignr     m2, m6, 2       ; [- - - 4 3 2 1 0]
     palignr     m1, m6, 4       ; [- - - - 4 3 2 1]
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/intrapred8.asm
--- a/source/common/x86/intrapred8.asm	Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/intrapred8.asm	Thu Mar 06 16:12:38 2014 +0530
@@ -214,7 +214,7 @@
     lea             r1,            [r1 * 3]
     pextrb          [r6 + r1],     m2, 5
 
-.end
+.end:
     RET
 
 ;-------------------------------------------------------------------------------------------
@@ -329,7 +329,7 @@
     pextrb          [r6 + r1],     m3, 5
     pextrb          [r6 + r1 * 2], m3, 6
 
-.end
+.end:
     RET
 
 ;-------------------------------------------------------------------------------------------
@@ -704,7 +704,7 @@
 %endmacro
 
     mov r3,         32
-.loop
+.loop:
     COMP_PRED_PLANAR_ROW 0
     COMP_PRED_PLANAR_ROW 16
     inc             r2
@@ -992,7 +992,7 @@
     cmp         r4m, byte 23
     jnz        .load
     xchg        r2, r3
-.load
+.load:
     movh        m1, [r2 - 1]    ; [x x 4 3 2 1 0 x]
     palignr     m0, m1, 1       ; [x x x 4 3 2 1 0]
     palignr     m2, m1, 2       ; [x x x x 4 3 2 1]
@@ -1014,7 +1014,7 @@
     cmp         r4m, byte 22
     jnz        .load
     xchg        r2, r3
-.load
+.load:
     movh        m2, [r2 - 1]    ; [x x 4 3 2 1 0 x]
     palignr     m0, m2, 1       ; [x x x 4 3 2 1 0]
     palignr     m1, m2, 2       ; [x x x x 4 3 2 1]
@@ -1036,7 +1036,7 @@
     cmp         r4m, byte 21
     jnz        .load
     xchg        r2, r3
-.load
+.load:
     movh        m2, [r2 - 1]    ; [x x 4 3 2 1 0 x]
     palignr     m0, m2, 1       ; [x x x 4 3 2 1 0]
     palignr     m1, m2, 2       ; [x x x x 4 3 2 1]
@@ -1061,7 +1061,7 @@
     cmp         r4m, byte 20
     jnz        .load
     xchg        r2, r3
-.load
+.load:
     movh        m2, [r2 - 1]    ; [x x 4 3 2 1 0 x]
     palignr     m0, m2, 1       ; [x x x 4 3 2 1 0]
     palignr     m1, m2, 2       ; [x x x x 4 3 2 1]
@@ -1086,7 +1086,7 @@
     cmp         r4m, byte 19
     jnz        .load
     xchg        r2, r3
-.load
+.load:
     movh        m3, [r2 - 1]    ; [- - 4 3 2 1 0 x]
     palignr     m0, m3, 1       ; [- - - 4 3 2 1 0]
     palignr     m1, m3, 2       ; [- - - - 4 3 2 1]
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/ipfilter16.asm
--- a/source/common/x86/ipfilter16.asm	Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/ipfilter16.asm	Thu Mar 06 16:12:38 2014 +0530
@@ -135,7 +135,7 @@
     add         r4d, 7
 %endif
 
-.loopH
+.loopH:
     movu        m2, [r0]                     ; m2 = src[0-7]
     movu        m3, [r0 + 16]                ; m3 = src[8-15]
 
@@ -221,7 +221,7 @@
     add         r4d, 7
 %endif
 
-.loopH
+.loopH:
     movu        m2, [r0]                     ; m2 = src[0-7]
     movu        m3, [r0 + 16]                ; m3 = src[8-15]
 
@@ -322,7 +322,7 @@
     add         r4d, 7
 %endif
 
-.loopH
+.loopH:
     movu        m2, [r0]                     ; m2 = src[0-7]
     movu        m3, [r0 + 16]                ; m3 = src[8-15]
 
@@ -445,7 +445,7 @@
     add         r4d, 7
 %endif
 
-.loopH
+.loopH:
 %assign x 0
 %rep %1 / 16
     movu        m2, [r0 + x]                 ; m2 = src[0-7]
@@ -640,7 +640,7 @@
     add         r4d, 7
 %endif
 
-.loopH
+.loopH:
     movu        m2, [r0]                     ; m2 = src[0-7]
     movu        m3, [r0 + 16]                ; m3 = src[8-15]
 
@@ -1523,9 +1523,9 @@
     %endif
 %endif
 
-.loopH
+.loopH:
     mov       r4d, (%1/4)
-.loopW
+.loopW:
     PROCESS_CHROMA_SP_W4_4R
 
 %ifidn %3, ss
@@ -1720,7 +1720,7 @@
     %endif
 %endif
 
-.loopH
+.loopH:
     PROCESS_CHROMA_SP_W2_4R r5
 %ifidn %2, ss
     psrad     m0, 6
@@ -1894,7 +1894,7 @@
     %endif
 %endif
 
-.loopH
+.loopH:
     PROCESS_CHROMA_SP_W4_4R
 
 %ifidn %1, ss
@@ -2057,7 +2057,7 @@
     mova      m7, [tab_c_n32768]
 %endif
 
-.loopH
+.loopH:
     PROCESS_CHROMA_SP_W8_2R
 
 %ifidn %3, ss
@@ -2291,9 +2291,9 @@
     mova      m7, [pd_32]
 
     mov       byte [rsp], %2/4
-.loopH
+.loopH:
     mov       r4d, (%1/4)
-.loopW
+.loopW:
     PROCESS_LUMA_VER_W4_4R
 
     paddd     m0, m7
@@ -2387,9 +2387,9 @@
     mova      m7, [pd_n32768]
 
     mov       byte [rsp], %2/4
-.loopH
+.loopH:
     mov       r4d, (%1/4)
-.loopW
+.loopW:
     PROCESS_LUMA_VER_W4_4R
 
     paddd     m0, m7
@@ -2479,9 +2479,9 @@
     mova      m7, [tab_c_524800]
 
     mov       byte [rsp], %2/4
-.loopH
+.loopH:
     mov       r4d, (%1/4)
-.loopW
+.loopW:
     PROCESS_LUMA_VER_W4_4R
 
     paddd     m0, m7
@@ -2573,9 +2573,9 @@
 %endif
 
     mov        byte [rsp], %2/4
-.loopH
+.loopH:
     mov        r4d, (%1/4)
-.loopW
+.loopW:
     PROCESS_LUMA_VER_W4_4R
 
     psrad      m0, 6
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/ipfilter8.asm
--- a/source/common/x86/ipfilter8.asm	Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/ipfilter8.asm	Thu Mar 06 16:12:38 2014 +0530
@@ -504,7 +504,7 @@
 mova        Tm0,         [tab_Tm]
 mova        Tm1,         [tab_Tm + 16]
 
-.loop
+.loop:
 FILTER_H4_w%1   t0, t1, t2
 add         srcq,        srcstrideq
 add         dstq,        dststrideq
@@ -555,7 +555,7 @@
 mova        Tm0,         [tab_Tm]
 mova        Tm1,         [tab_Tm + 16]
 
-.loop
+.loop:
 FILTER_H4_w%1   t0, t1, t2, t3
 add         srcq,        srcstrideq
 add         dstq,        dststrideq
@@ -641,7 +641,7 @@
     add       r4d, 7
 %endif
 
-.loopH
+.loopH:
     xor       r5, r5
 %rep %1 / 8
   %ifidn %3, pp 
@@ -703,7 +703,7 @@
     mova        m2, [pw_512]                    ; m2 = 512
 
     mov         r4d, %2
-.loopH
+.loopH:
 %assign x 0
 %rep %1 / 8
     movu        m3, [r0 - 3 + x]                ; m3 = [F E D C B A 9 8 7 6 5 4 3 2 1 0]
@@ -1006,7 +1006,7 @@
 mov         r4d,       %2
 lea         r5,        [3 * r1]
 
-.loop
+.loop:
 movd        m2,        [r0]
 movd        m3,        [r0 + r1]
 movd        m4,        [r0 + 2 * r1]
@@ -1212,7 +1212,7 @@
 
 lea         r5,        [3 * r1]
 
-.loop
+.loop:
 movd        m2,        [r0]
 movd        m3,        [r0 + r1]
 movd        m4,        [r0 + 2 * r1]
@@ -1580,7 +1580,7 @@
     mov        r4d, %2/4
     lea        r5, [3 * r1]
 
-.loop
+.loop:
     movd       m2, [r0]
     movd       m3, [r0 + r1]
     movd       m4, [r0 + 2 * r1]
@@ -1665,7 +1665,7 @@
     mov        r4d, %2/2
     lea        r5, [3 * r1]
 
-.loopH
+.loopH:
     movq       m0, [r0]
     movq       m1, [r0 + r1]
     movq       m2, [r0 + 2 * r1]
@@ -1733,7 +1733,7 @@
     mov        r4d, %2/4
     lea        r5, [3 * r1]
 
-.loop
+.loop:
     movq       m0, [r0]
     movq       m1, [r0 + r1]
     movq       m2, [r0 + 2 * r1]
@@ -1823,7 +1823,7 @@
     lea        r5, [3 * r1]
     mov        r4d, 2
 
-.loop
+.loop:
     movq       m0, [r0]
     movq       m1, [r0 + r1]
     movq       m2, [r0 + 2 * r1]
@@ -1912,7 +1912,7 @@
 
     mov        r4d, 16/2
 
-.loop
+.loop:
     movu       m2, [r0]
     movu       m3, [r0 + r1]
 
@@ -1993,7 +1993,7 @@
     pshufb     m0, [tab_Vm + 16]
     mov        r4d, %2/2
 
-.loop
+.loop:
     movu       m2, [r0]
     movu       m3, [r0 + r1]
 
@@ -2081,7 +2081,7 @@
 
     mov        r4d, 32/2
 
-.loop
+.loop:
     movu       m2, [r0]
     movu       m3, [r0 + r1]
 
@@ -2196,7 +2196,7 @@
 
     mov        r4d, %2
 
-.loop
+.loop:
     movu       m2, [r0]
     movu       m3, [r0 + r1]
 
@@ -2289,7 +2289,7 @@
 
 mov         r4d,       %2
 
-.loop
+.loop:
 movq        m0,        [r0]
 movq        m1,        [r0 + r1]
 movq        m2,        [r0 + 2 * r1]
@@ -2383,7 +2383,7 @@
 mov         r4d,       %2
 lea         r5,        [3 * r1]
 
-.loop
+.loop:
 movq        m0,        [r0]
 movq        m1,        [r0 + r1]
 movq        m2,        [r0 + 2 * r1]
@@ -2477,7 +2477,7 @@
 
 mov         r4d,       %2
 
-.loop
+.loop:
 movu        m2,        [r0]
 movu        m3,        [r0 + r1]
 
@@ -2565,7 +2565,7 @@
 
 mov         r4d,       %2
 
-.loop
+.loop:
 movu        m2,        [r0]
 movu        m3,        [r0 + r1]
 
@@ -2655,7 +2655,7 @@
 
 mov         r4d,       %2
 
-.loop
+.loop:
 movu        m2,        [r0]
 movu        m3,        [r0 + r1]
 
@@ -2778,7 +2778,7 @@
 
 mov         r4d,       %2
 
-.loop
+.loop:
 movu        m2,        [r0]
 movu        m3,        [r0 + r1]
 
@@ -3058,7 +3058,7 @@
     mov       r4d, %2/4
     lea       r5, [4 * r1]
 
-.loopH
+.loopH:
     PROCESS_LUMA_W4_4R
 
 %ifidn %3,pp
@@ -3152,7 +3152,7 @@
     mov       r4d, %2/4
     lea       r5, [4 * r1]
 
-.loopH
+.loopH:
     PROCESS_LUMA_W8_4R
 
 %ifidn %3,pp
@@ -3259,7 +3259,7 @@
 
     mov       r4d, %2/4
 
-.loopH
+.loopH:
     PROCESS_LUMA_W8_4R
 
 %ifidn %3,pp
@@ -3372,9 +3372,9 @@
 %endif
     mov       byte [rsp], %2/4
 
-.loopH
+.loopH:
     mov       r4d, (%1/8)
-.loopW
+.loopW:
     PROCESS_LUMA_W8_4R
 %ifidn %3,pp
     pmulhrsw  m7, m3
@@ -3549,9 +3549,9 @@
     mova      m7, [tab_c_526336]
 
     mov       byte [rsp], %2/4
-.loopH
+.loopH:
     mov       r4d, (%1/4)
-.loopW
+.loopW:
     PROCESS_LUMA_SP_W4_4R
 
     paddd     m0, m7
@@ -3737,9 +3737,9 @@
 
     mov       byte [rsp], %2/4
 
-.loopH
+.loopH:
     mov       r4d, (%1/4)
-.loopW
+.loopW:
     PROCESS_CHROMA_SP_W4_4R
 
     paddd     m0, m6
@@ -3850,7 +3850,7 @@
 
     mov       r4d, (%2/4)
 
-.loopH
+.loopH:
     PROCESS_CHROMA_SP_W2_4R r5
 
     paddd     m0, m5
@@ -3951,7 +3951,7 @@
 
     mov       r4d, 8/4
 
-.loopH
+.loopH:
     PROCESS_CHROMA_SP_W4_4R
 
     paddd     m0, m6
@@ -4057,7 +4057,7 @@
     mova      m7, [tab_c_526336]
 
     mov       r4d, %2/2
-.loopH
+.loopH:
     PROCESS_CHROMA_SP_W8_2R
 
     paddd     m0, m7
@@ -4125,7 +4125,7 @@
     sub        srcq, srcstrideq
     add        r4d, 3
 
-.loopH
+.loopH:
     movh       t0, [srcq]
     pshufb     t0, t0, Tm0
     pmaddubsw  t0, coef2
@@ -4177,7 +4177,7 @@
     sub        srcq, srcstrideq
     add        r4d, 3
 
-.loopH
+.loopH:
     movh       t0, [srcq]
     pshufb     t0, t0, Tm0
     pmaddubsw  t0, coef2
@@ -4263,7 +4263,7 @@
     sub     srcq, srcstrideq
     add     r4d, 3
 
-.loopH
+.loopH:
     PROCESS_CHROMA_W%1  t0, t1, t2
     add     srcq, srcstrideq
     add     dstq, dststrideq
@@ -4323,7 +4323,7 @@
     sub     srcq, srcstrideq
     add     r4d, 3
 
-.loopH
+.loopH:
     PROCESS_CHROMA_W8  t0, t1, t2
     add     srcq, srcstrideq
     add     dstq, dststrideq
@@ -4458,7 +4458,7 @@
     sub     srcq, srcstrideq
     add     r4d, 3
 
-.loopH
+.loopH:
     PROCESS_CHROMA_W%1   t0, t1, t2, t3
     add     srcq, srcstrideq
     add     dstq, dststrideq
@@ -4575,7 +4575,7 @@
     mova       m1, [pw_2000]
     lea        r5, [3 * r1]
     mov        r4d, 2
-.loop
+.loop:
     movd       m2, [r0]
     movd       m3, [r0 + r1]
     movd       m4, [r0 + 2 * r1]
@@ -4657,9 +4657,9 @@
 
     mov       byte [rsp], %2/4
 
-.loopH
+.loopH:
     mov       r4d, (%1/4)
-.loopW
+.loopW:
     PROCESS_CHROMA_SP_W4_4R
 
     psrad     m0, 6
@@ -4728,7 +4728,7 @@
 
     mov       r4d, (%2/4)
 
-.loopH
+.loopH:
     PROCESS_CHROMA_SP_W2_4R r5
 
     psrad     m0, 6
@@ -4820,7 +4820,7 @@
 
     mov       r4d, 8/4
 
-.loopH
+.loopH:
     PROCESS_CHROMA_SP_W4_4R
 
     psrad     m0, 6
@@ -4882,7 +4882,7 @@
 %endif
 
     mov       r4d, %2/2
-.loopH
+.loopH:
     PROCESS_CHROMA_SP_W8_2R
 
     psrad     m0, 6
@@ -4932,9 +4932,9 @@
 %endif
 
     mov        byte [rsp], %2/4
-.loopH
+.loopH:
     mov        r4d, (%1/4)
-.loopW
+.loopW:
     movq       m0, [r0]
     movq       m1, [r0 + r1]
     punpcklwd  m0, m1                          ;m0=[0 1]
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/mc-a.asm
--- a/source/common/x86/mc-a.asm	Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/mc-a.asm	Thu Mar 06 16:12:38 2014 +0530
@@ -301,7 +301,7 @@
 
     mov            r6d,         %1/4
 
-.loop
+.loop:
 %rep 2
     movh           m0,          [r0]
     movh           m1,          [r0 + r3]
@@ -348,7 +348,7 @@
     add         r5,          r5
     mov         r6d,         %1/4
 
-.loop
+.loop:
 %rep 2
     movu        m0,          [r0]
     movu        m2,          [r1]
@@ -395,7 +395,7 @@
     add            r5,             r5
     mov            r6d,            %1/4
 
-.loop
+.loop:
 %rep 2
     movu           m0,             [r0]
     movu           m2,             [r1]
@@ -455,7 +455,7 @@
     add         r5,              r5
     mov         r6d,             %1/4
 
-.loop
+.loop:
 %rep 2
     movu        m0,              [r0]
     movu        m2,              [r1]
@@ -523,7 +523,7 @@
 
     mov         r6d,             %2/2
 
-.loop
+.loop:
     movu        m0,              [r0]
     movu        m2,              [r1]
     paddw       m0,              m2
@@ -603,7 +603,7 @@
 
     mov         r6d,             %1/2
 
-.loop
+.loop:
     movu        m0,              [r0]
     movu        m2,              [r1]
     paddw       m0,              m2
@@ -705,7 +705,7 @@
 
     mov         r6d,             %1/2
 
-.loop
+.loop:
     movu        m0,              [r0]
     movu        m2,              [r1]
     paddw       m0,              m2
@@ -838,7 +838,7 @@
     add         r5,              r5
     mov         r6d,             %1
 
-.loop
+.loop:
     movu        m0,              [r0]
     movu        m2,              [r1]
     paddw       m0,              m2
@@ -1087,7 +1087,7 @@
 
     mov            r6d,         %1/4
 
-.loop
+.loop:
     movh           m0,          [r0]
     movhps         m0,          [r0 + r3]
     movh           m2,          [r1]
@@ -1337,7 +1337,7 @@
 
     mov         r6d,         %1/4
 
-.loop
+.loop:
     movu        m0,          [r0]
     movu        m2,          [r1]
     paddw       m0,          m2
@@ -1406,7 +1406,7 @@
 
     mov            r6d,            %1/4
 
-.loop
+.loop:
     movu           m0,             [r0]
     movu           m2,             [r1]
     paddw          m0,             m2
@@ -1499,7 +1499,7 @@
 
     mov         r6d,             %1/4
 
-.loop
+.loop:
     movu        m0,              [r0]
     movu        m2,              [r1]
     paddw       m0,              m2
@@ -1594,7 +1594,7 @@
 
     mov         r6d,             %2/2
 
-.loop
+.loop:
     movu        m0,              [r0]
     movu        m2,              [r1]
     paddw       m0,              m2
@@ -1667,7 +1667,7 @@
 
     mov         r6d,             %1/2
 
-.loop
+.loop:
     movu        m0,              [r0]
     movu        m2,              [r1]
     paddw       m0,              m2
@@ -1758,7 +1758,7 @@
 
     mov         r6d,             %1/2
 
-.loop
+.loop:
     movu        m0,              [r0]
     movu        m2,              [r1]
     paddw       m0,              m2
@@ -1873,7 +1873,7 @@
 
     mov         r6d,             %1
 
-.loop
+.loop:
     movu        m0,              [r0]
     movu        m2,              [r1]
     paddw       m0,              m2
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/pixel-util8.asm
--- a/source/common/x86/pixel-util8.asm	Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/pixel-util8.asm	Thu Mar 06 16:12:38 2014 +0530
@@ -1247,7 +1247,7 @@
     pshuflw     m1, m1, 0
     punpcklqdq  m1, m1
 
-.loop
+.loop:
     mova        m2, [r0]
     mova        m3, [r0 + 16]
     add         r0, 32
@@ -1288,7 +1288,7 @@
     sub         r2d, r4d
     sub         r3d, r4d
 
-.loopH
+.loopH:
     mov         r6d, r4d
     shr         r6d, 4
 .loopW:
@@ -1372,7 +1372,7 @@
 
     add         r2d, r2d
 
-.loopH
+.loopH:
     mov         r6d, r4d
 
     ; save old src and dst
@@ -1404,7 +1404,7 @@
 
     jmp         .loopW
 
-.width4
+.width4:
     cmp         r6d, -4
     jl          .width2
     movd        [r1], m6
@@ -1412,10 +1412,10 @@
     add         r1, 4
     pshufd      m6, m6, 1
 
-.width2
+.width2:
     pextrw      [r1], m6, 0
 
-.nextH
+.nextH:
     mov         r0, tmp_r0
     mov         r1, tmp_r1
     lea         r0, [r0 + r2]
@@ -2401,7 +2401,7 @@
     mov       r3d,    32
     mova      m7,    [deinterleave_word_shuf]
     add       r2,    r2
-.loop
+.loop:
     movu      m0,    [r1]                  ;i
     psrld     m1,    m0,    16             ;j
     movu      m2,    [r1 + r2]             ;k
@@ -2572,7 +2572,7 @@
 cglobal scale2D_64to32, 3, 4, 8, dest, src, stride
     mov       r3d,    32
     mova        m7,      [deinterleave_shuf]
-.loop
+.loop:
 
     movu        m0,      [r1]                  ;i
     psrlw       m1,      m0,    8              ;j
@@ -3055,7 +3055,7 @@
 %if HIGH_BIT_DEPTH
     add      r4,    r4
     add      r5,    r5
-.loop
+.loop:
     movh     m0,    [r2]
     movh     m1,    [r3]
     movh     m2,    [r2 + r4]
@@ -3077,7 +3077,7 @@
     lea      r0,             [r0 + 2 * r1]
     movh     [r0 + r1],      m6
 %else
-.loop
+.loop:
     movd         m0,    [r2]
     movd         m1,    [r3]
     movd         m2,    [r2 + r4]
@@ -3133,7 +3133,7 @@
 %if HIGH_BIT_DEPTH
     add         r4, r4
     add         r5, r5
-.loop
+.loop:
     movu        m0, [r2]
     movu        m1, [r3]
     psubw       m0, m1
@@ -3166,7 +3166,7 @@
     movhlps     m0, m0
     movd        [r0 + r1 + 8], m0
 %else
-.loop
+.loop:
     movh        m0, [r2]
     pmovzxbw    m0, m0
     movh        m1, [r3]
@@ -3353,7 +3353,7 @@
 %if HIGH_BIT_DEPTH
     add     r4,    r4
     add     r5,    r5
-.loop
+.loop:
     movu    m0,    [r2]
     movu    m1,    [r3]
     movu    m2,    [r2 + r4]
@@ -3366,7 +3366,7 @@
     movu    m7,    [r3 + r5]
 %else
 
-.loop
+.loop:
     movh        m0,    [r2]
     movh        m1,    [r3]
     pmovzxbw    m0,    m0
@@ -3429,7 +3429,7 @@
 %if HIGH_BIT_DEPTH
     add     r4,    r4
     add     r5,    r5
-.loop
+.loop:
     movu     m0,    [r2]
     movu     m1,    [r3]
     movh     m2,    [r2 + 16]
@@ -3469,7 +3469,7 @@
     movu    [r0 + r1],         m4
     movh    [r0 + r1 + 16],    m6
 %else
-.loop
+.loop:
     movu        m0,    [r2]
     movu        m1,    [r3]
     movu        m2,    [r2 + r4]
@@ -3545,7 +3545,7 @@
     mov    r6d,    %2/4
     add     r4,    r4
     add     r5,    r5
-.loop
+.loop:
     movu     m0,    [r2]
     movu     m1,    [r3]
     movu     m2,    [r2 + 16]
@@ -3589,7 +3589,7 @@
     add    r1,     r1
     mov    r6d,    %2/4
     pxor   m6,     m6
-.loop
+.loop:
     movu         m1,    [r2]
     pmovzxbw     m0,    m1
     punpckhbw    m1,    m6
@@ -3675,7 +3675,7 @@
     mov     r6d,    %2/2
     add     r4,     r4
     add     r5,     r5
-.loop
+.loop:
     movu     m0,    [r2]
     movu     m1,    [r3]
     movu     m2,    [r2 + 16]
@@ -3708,7 +3708,7 @@
     add    r1,     r1
     mov    r6d,    %2/2
     pxor   m6,     m6
-.loop
+.loop:
     movu         m1,    [r2]
     pmovzxbw     m0,    m1
     punpckhbw    m1,    m6
@@ -3773,7 +3773,7 @@
 %if HIGH_BIT_DEPTH
     add     r4,     r4
     add     r5,     r5
-.loop
+.loop:
     movu     m0,    [r2]
     movu     m1,    [r3]
     movu     m2,    [r2 + 16]
@@ -3810,7 +3810,7 @@
     movu    [r0 + r1 + 32],    m4
     movu    [r0 + r1 + 48],    m3
 %else
-.loop
+.loop:
     movh        m0,    [r2]
     movh        m1,    [r2 + 8]
     movh        m2,    [r2 + 16]
@@ -3897,7 +3897,7 @@
     mov     r6d,    %2/2
     add     r4,     r4
     add     r5,     r5
-.loop
+.loop:
     movu     m0,    [r2]
     movu     m1,    [r3]
     movu     m2,    [r2 + 16]
@@ -3959,7 +3959,7 @@
     add     r1,     r1
     mov     r6d,    %2/2
     pxor    m6,     m6
-.loop
+.loop:
     movu         m1,    [r2]
     pmovzxbw     m0,    m1
     punpckhbw    m1,    m6
@@ -4059,7 +4059,7 @@
     mov     r6d,    %2/2
     add     r4,     r4
     add     r5,     r5
-.loop
+.loop:
     movu     m0,    [r2]
     movu     m1,    [r3]
     movu     m2,    [r2 + 16]
@@ -4138,7 +4138,7 @@
     add     r1,     r1
     mov     r6d,    %2/2
     pxor    m6,     m6
-.loop
+.loop:
     movu         m1,    [r2]
     pmovzxbw     m0,    m1
     punpckhbw    m1,    m6
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/pixeladd8.asm
--- a/source/common/x86/pixeladd8.asm	Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/pixeladd8.asm	Thu Mar 06 16:12:38 2014 +0530
@@ -127,7 +127,7 @@
     pxor     m4,    m4
     mov      r6d,   %2/4
     mova     m5,    [pw_pixel_max]
-.loop
+.loop:
     movd     m0,    [r2]
     movd     m1,    [r3]
     movd     m2,    [r2 + r4]
@@ -163,7 +163,7 @@
 
 mov         r6d,           %2/4
 
-.loop
+.loop:
       pmovzxbw    m0,            [r2]
       movd        m1,            [r3]
 
@@ -272,7 +272,7 @@
     add      r5, r5
     pxor     m0, m0
     mova     m1, [pw_pixel_max]
-.loop
+.loop:
     movh     m2, [r2]
     movhps   m2, [r2 + r4]
 
@@ -308,7 +308,7 @@
 
 mov         r6d,           %2/4
 
-.loop
+.loop:
 
     pmovzxbw    m0,            [r2]
     movh        m1,            [r3]
@@ -373,7 +373,7 @@
     add      r5,    r5
     pxor     m4,    m4
     mova     m5,    [pw_pixel_max]
-.loop
+.loop:
     movu        m0,    [r2]
     movu        m1,    [r3]
     movu        m2,    [r2 + r4]
@@ -416,7 +416,7 @@
 
 mov         r6d,           %2/4
 
-.loop
+.loop:
       pmovzxbw    m0,                [r2]
       movu        m1,                [r3]
 
@@ -648,7 +648,7 @@
     add      r5,    r5
     pxor     m4,    m4
     mova     m5,    [pw_pixel_max]
-.loop
+.loop:
     movu     m0,    [r2]
     movu     m1,    [r3]
     movu     m2,    [r2 + r4]
@@ -684,7 +684,7 @@
 
 mov         r6d,           %2/4
 
-.loop
+.loop:
       pmovzxbw    m0,            [r2]
       movu        m1,            [r3]
 
@@ -750,7 +750,7 @@
     add      r5,    r5
     pxor     m4,    m4
     mova     m5,    [pw_pixel_max]
-.loop
+.loop:
     movu        m0,    [r2]
     movu        m1,    [r3]
     movh        m2,    [r2 + 16]
@@ -809,7 +809,7 @@
 
 mov         r6d,           %2/4
 
-.loop
+.loop:
       pmovzxbw    m0,                [r2]
       pmovzxbw    m1,                [r2 + 8]
 
@@ -899,7 +899,7 @@
     add      r5,    r5
     pxor     m4,    m4
     mova     m5,    [pw_pixel_max]
-.loop
+.loop:
     movu     m0,    [r2]
     movu     m1,    [r3]
     movu     m2,    [r2 + 16]
@@ -959,7 +959,7 @@
 
 mov         r6d,           %2/4
 
-.loop
+.loop:
       pmovzxbw    m0,            [r2]
       pmovzxbw    m1,            [r2 + 8]
 
@@ -1046,7 +1046,7 @@
     add      r5,    r5
     pxor     m4,    m4
     mova     m5,    [pw_pixel_max]
-.loop
+.loop:
     movu     m0,    [r2]
     movu     m1,    [r3]
     movu     m2,    [r2 + 16]
@@ -1089,7 +1089,7 @@
     add         r5,            r5
     mov         r6d,           %2/2
 
-.loop
+.loop:
     pmovzxbw    m0,             [r2]
     pmovzxbw    m1,             [r2 + 8]
     pmovzxbw    m2,             [r2 + 16]
@@ -1151,7 +1151,7 @@
     add      r5,    r5
     pxor     m4,    m4
     mova     m5,    [pw_pixel_max]
-.loop
+.loop:
     movu     m0,    [r2]
     movu     m1,    [r3]
     movu     m2,    [r2 + 16]
@@ -1206,7 +1206,7 @@
     add         r5,            r5
     mov         r6d,           %2/2
 
-.loop
+.loop:
     pmovzxbw    m0,             [r2]
     pmovzxbw    m1,             [r2 + 8]
     pmovzxbw    m2,             [r2 + 16]
@@ -1278,7 +1278,7 @@
     add      r5,    r5
     pxor     m4,    m4
     mova     m5,    [pw_pixel_max]
-.loop
+.loop:
     movu     m0,    [r2]
     movu     m1,    [r3]
     movu     m2,    [r2 + 16]
@@ -1358,7 +1358,7 @@
 
 mov         r6d,           %2/2
 
-.loop
+.loop:
       pmovzxbw    m0,             [r2]
       pmovzxbw    m1,             [r2 + 8]
       pmovzxbw    m2,             [r2 + 16]
@@ -1452,7 +1452,7 @@
     add      r5,    r5
     pxor     m4,    m4
     mova     m5,    [pw_pixel_max]
-.loop
+.loop:
     movu     m0,    [r2]
     movu     m1,    [r3]
     movu     m2,    [r2 + 16]
@@ -1555,7 +1555,7 @@
     add         r5,            r5
     mov         r6d,           %2/2
 
-.loop
+.loop:
     pmovzxbw    m0,             [r2]
     pmovzxbw    m1,             [r2 + 8]
     pmovzxbw    m2,             [r2 + 16]
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/sad-a.asm
--- a/source/common/x86/sad-a.asm	Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/sad-a.asm	Thu Mar 06 16:12:38 2014 +0530
@@ -504,7 +504,7 @@
 cglobal pixel_sad_16x32, 4,5,3
     pxor m0,  m0
     mov  r4d, 4
-.loop
+.loop:
     PROCESS_SAD_16x4
     PROCESS_SAD_16x4
     dec  r4d
@@ -521,7 +521,7 @@
 cglobal pixel_sad_16x64, 4,5,3
     pxor m0,  m0
     mov  r4d, 8
-.loop
+.loop:
     PROCESS_SAD_16x4
     PROCESS_SAD_16x4
     dec  r4d
@@ -576,7 +576,7 @@
 cglobal pixel_sad_32x24, 4,5,3
     pxor  m0,  m0
     mov   r4d, 3
-.loop
+.loop:
     PROCESS_SAD_32x4
     PROCESS_SAD_32x4
     dec r4d
@@ -593,7 +593,7 @@
 cglobal pixel_sad_32x32, 4,5,3
     pxor  m0,  m0
     mov   r4d, 4
-.loop
+.loop:
     PROCESS_SAD_32x4
     PROCESS_SAD_32x4
     dec r4d
@@ -626,7 +626,7 @@
 cglobal pixel_sad_32x64, 4,5,3
     pxor  m0,  m0
     mov   r4d, 8
-.loop
+.loop:
     PROCESS_SAD_32x4
     PROCESS_SAD_32x4
     dec  r4d
@@ -643,7 +643,7 @@
 cglobal pixel_sad_8x32, 4,5,3
     pxor  m0,  m0
     mov   r4d, 4
-.loop
+.loop:
     PROCESS_SAD_8x4
     PROCESS_SAD_8x4
     dec  r4d
@@ -677,7 +677,7 @@
     pxor  m0,  m0
     mov   r4,  4
 
-.loop
+.loop:
     PROCESS_SAD_64x4
     PROCESS_SAD_64x4
 
@@ -696,7 +696,7 @@
     pxor  m0,  m0
     mov   r4,  6
 
-.loop
+.loop:
     PROCESS_SAD_64x4
     PROCESS_SAD_64x4
     dec     r4d
@@ -714,7 +714,7 @@
     pxor  m0,  m0
     mov   r4,  8
 
-.loop
+.loop:
     PROCESS_SAD_64x4
     PROCESS_SAD_64x4
     dec   r4
@@ -732,7 +732,7 @@
     pxor  m0,  m0
     mov   r4,  64
 
-.loop
+.loop:
     PROCESS_SAD_48x4
     lea     r2,  [r2 + r3]
     lea     r0,  [r0 + r1]
@@ -762,7 +762,7 @@
     pxor  m0,  m0
     mov   r4,  32
 
-.loop
+.loop:
     PROCESS_SAD_24x4
     lea         r2,  [r2 + r3]
     lea         r0,  [r0 + r1]
@@ -2862,7 +2862,7 @@
     pxor  m2, m2
     mov   r6, 32
 
-.loop
+.loop:
     SAD_X3_24x4
     SAD_X3_24x4
     SAD_X3_24x4
@@ -2888,7 +2888,7 @@
     pxor  m3, m3
     mov   count, 32
 
-.loop
+.loop:
     SAD_X4_24x4
     SAD_X4_24x4
     SAD_X4_24x4
@@ -2940,7 +2940,7 @@
     pxor  m2, m2
     mov   r6, 32
 
-.loop
+.loop:
     SAD_X3_32x4
     SAD_X3_32x4
     SAD_X3_32x4
@@ -2957,7 +2957,7 @@
     pxor  m2, m2
     mov   r6, 64
 
-.loop1
+.loop1:
     SAD_X3_32x4
     SAD_X3_32x4
     SAD_X3_32x4
@@ -3019,7 +3019,7 @@
     pxor  m3, m3
     mov   count, 32
 
-.loop
+.loop:
     SAD_X4_32x4
     SAD_X4_32x4
     SAD_X4_32x4
@@ -3042,7 +3042,7 @@
     pxor  m3, m3
     mov   count, 64
 
-.loop
+.loop:
     SAD_X4_32x4
     SAD_X4_32x4
     SAD_X4_32x4
@@ -3061,7 +3061,7 @@
     pxor  m2, m2
     mov   r6, 64
 
-.loop
+.loop:
     SAD_X3_48x4
     SAD_X3_48x4
     SAD_X3_48x4
@@ -3086,7 +3086,7 @@
     pxor  m3, m3
     mov   count, 64
 
-.loop
+.loop:
     SAD_X4_48x4
     SAD_X4_48x4
     SAD_X4_48x4
@@ -3104,7 +3104,7 @@
     pxor  m2, m2
     mov   r6, 16
 
-.loop
+.loop:
     SAD_X3_64x4
     SAD_X3_64x4
 
@@ -3118,7 +3118,7 @@
     pxor  m2, m2
     mov   r6, 32
 
-.loop
+.loop:
     SAD_X3_64x4
     SAD_X3_64x4
 
@@ -3132,7 +3132,7 @@
     pxor  m2, m2
     mov   r6, 48
 
-.loop
+.loop:
     SAD_X3_64x4
     SAD_X3_64x4
 
@@ -3146,7 +3146,7 @@
     pxor  m2, m2
     mov   r6, 64
 
-.loop
+.loop:
     SAD_X3_64x4
     SAD_X3_64x4
 
@@ -3169,7 +3169,7 @@
     pxor  m3, m3
     mov   count, 16
 
-.loop
+.loop:
     SAD_X4_64x4
     SAD_X4_64x4
 
@@ -3190,7 +3190,7 @@
     pxor  m3, m3
     mov   count, 32
 
-.loop
+.loop:
     SAD_X4_64x4
     SAD_X4_64x4
 
@@ -3211,7 +3211,7 @@
     pxor  m3, m3
     mov   count, 48
 
-.loop
+.loop:
     SAD_X4_64x4
     SAD_X4_64x4
 
@@ -3232,7 +3232,7 @@
     pxor  m3, m3
     mov   count, 64
 
-.loop
+.loop:
     SAD_X4_64x4
     SAD_X4_64x4
 
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/ssd-a.asm
--- a/source/common/x86/ssd-a.asm	Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/ssd-a.asm	Thu Mar 06 16:12:38 2014 +0530
@@ -76,7 +76,7 @@
     mov    r4d, %%n
 %endif
     pxor    m0, m0
-.loop
+.loop:
     movu    m1, [r0]
     movu    m2, [r0+offset0_1]
     movu    m3, [r0+offset0_2]
@@ -120,7 +120,7 @@
     mov     r4d, %2/2
     lea     r5,  [r1 * 2]
     lea     r6,  [r3 * 2]
-.loop
+.loop:
     movu    m1,  [r0]
     movu    m2,  [r0 + 16]
     movu    m3,  [r0 + 32]
@@ -220,7 +220,7 @@
     mov     r4d, %2/2
     lea     r5,  [r1 * 2]
     lea     r6,  [r3 * 2]
-.loop
+.loop:
     movu    m1,  [r0]
     movu    m2,  [r0 + 16]
     movu    m3,  [r0 + 32]
@@ -266,7 +266,7 @@
     mov     r4d, %2/4
     lea     r5,  [r1 * 2]
     lea     r6,  [r3 * 2]
-.loop
+.loop:
     movu        m1,  [r0]
     movh        m2,  [r0 + 16]
     movu        m3,  [r0 + r1]
@@ -384,7 +384,7 @@
     mov    r4d, %%n
 %endif
     pxor    m0, m0
-.loop
+.loop:
 %if %1 == 4
     movh    m1, [r0]
     movh    m2, [r2]
@@ -464,7 +464,7 @@
     FIX_STRIDES r1, r3
     mov    r4d, 8
     pxor    m0, m0
-.loop
+.loop:
     movu    m1, [r0]
     movu    m2, [r2]
     psubw   m1, m2
@@ -506,7 +506,7 @@
     FIX_STRIDES r1, r3
     mov    r4d, %1/2
     pxor    m0, m0
-.loop
+.loop:
     movu    m1, [r0]
     movu    m2, [r2]
     psubw   m1, m2
@@ -572,7 +572,7 @@
     FIX_STRIDES r1, r3
     mov    r4d, 16
     pxor    m0, m0
-.loop
+.loop:
     movu    m1, [r0]
     movu    m2, [r2]
     psubw   m1, m2
@@ -620,7 +620,7 @@
     FIX_STRIDES r1, r3
     mov    r4d, 32
     pxor    m0, m0
-.loop
+.loop:
     movu    m1, [r0]
     movu    m2, [r2]
     psubw   m1, m2
@@ -698,7 +698,7 @@
     FIX_STRIDES r1, r3
     mov    r4d, %1/2
     pxor    m0, m0
-.loop
+.loop:
     movu    m1, [r0]
     movu    m2, [r2]
     psubw   m1, m2
@@ -1107,7 +1107,7 @@
     pxor        m6,     m6
     mov         r4d,    4
 
-.loop
+.loop:
     movu        m0,    [r0]
     movu        m1,    [r2]
     movu        m2,    [r0 + r1]
@@ -1184,7 +1184,7 @@
     pxor    m6,     m6
     mov     r4d,    16
 
-.loop
+.loop:
     movu         m1,    [r0]
     pmovzxbw     m0,    m1
     punpckhbw    m1,    m6


More information about the x265-devel mailing list