[x265] [PATCH] cleanup the labels in assembly code with trailing colon
yuvaraj at multicorewareinc.com
yuvaraj at multicorewareinc.com
Thu Mar 6 11:43:01 CET 2014
# HG changeset patch
# User Yuvaraj Venkatesh <yuvaraj at multicorewareinc.com>
# Date 1394102558 -19800
# Thu Mar 06 16:12:38 2014 +0530
# Node ID 317a94a3995b0312b00051f39b6d58dc738f9697
# Parent 889edfd2c4c33df368481bb161076da1dcdd8295
cleanup the labels in assembly code with trailing colon
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/intrapred16.asm
--- a/source/common/x86/intrapred16.asm Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/intrapred16.asm Thu Mar 06 16:12:38 2014 +0530
@@ -218,7 +218,7 @@
pextrw [r6 + r1], m0, 5
pextrw [r6 + r1 * 2], m0, 6
-.end
+.end:
RET
@@ -355,7 +355,7 @@
lea r6, [r6 + r1 * 2]
pextrw [r6], m3, 6
-.end
+.end:
RET
@@ -1226,7 +1226,7 @@
cmp r4m, byte 23
jnz .load
xchg r2, r3
-.load
+.load:
movu m5, [r2 - 2] ; [x x 4 3 2 1 0 x]
palignr m2, m5, 2 ; [x x x 4 3 2 1 0]
palignr m0, m5, 4 ; [x x x x 4 3 2 1]
@@ -1247,7 +1247,7 @@
cmp r4m, byte 22
jnz .load
xchg r2, r3
-.load
+.load:
movu m5, [r2 - 2] ; [x x 4 3 2 1 0 x]
palignr m2, m5, 2 ; [x x x 4 3 2 1 0]
palignr m0, m5, 4 ; [x x x x 4 3 2 1]
@@ -1269,7 +1269,7 @@
cmp r4m, byte 21
jnz .load
xchg r2, r3
-.load
+.load:
movu m3, [r2 - 2] ; [x x 4 3 2 1 0 x]
palignr m2, m3, 2 ; [x x x 4 3 2 1 0]
palignr m0, m3, 4 ; [x x x x 4 3 2 1]
@@ -1293,7 +1293,7 @@
cmp r4m, byte 20
jnz .load
xchg r2, r3
-.load
+.load:
movu m3, [r2 - 2] ; [x x 4 3 2 1 0 x]
palignr m2, m3, 2 ; [x x x 4 3 2 1 0]
palignr m0, m3, 4 ; [x x x x 4 3 2 1]
@@ -1316,7 +1316,7 @@
cmp r4m, byte 19
jnz .load
xchg r2, r3
-.load
+.load:
movu m6, [r2 - 2] ; [- - 4 3 2 1 0 x]
palignr m2, m6, 2 ; [- - - 4 3 2 1 0]
palignr m1, m6, 4 ; [- - - - 4 3 2 1]
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/intrapred8.asm
--- a/source/common/x86/intrapred8.asm Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/intrapred8.asm Thu Mar 06 16:12:38 2014 +0530
@@ -214,7 +214,7 @@
lea r1, [r1 * 3]
pextrb [r6 + r1], m2, 5
-.end
+.end:
RET
;-------------------------------------------------------------------------------------------
@@ -329,7 +329,7 @@
pextrb [r6 + r1], m3, 5
pextrb [r6 + r1 * 2], m3, 6
-.end
+.end:
RET
;-------------------------------------------------------------------------------------------
@@ -704,7 +704,7 @@
%endmacro
mov r3, 32
-.loop
+.loop:
COMP_PRED_PLANAR_ROW 0
COMP_PRED_PLANAR_ROW 16
inc r2
@@ -992,7 +992,7 @@
cmp r4m, byte 23
jnz .load
xchg r2, r3
-.load
+.load:
movh m1, [r2 - 1] ; [x x 4 3 2 1 0 x]
palignr m0, m1, 1 ; [x x x 4 3 2 1 0]
palignr m2, m1, 2 ; [x x x x 4 3 2 1]
@@ -1014,7 +1014,7 @@
cmp r4m, byte 22
jnz .load
xchg r2, r3
-.load
+.load:
movh m2, [r2 - 1] ; [x x 4 3 2 1 0 x]
palignr m0, m2, 1 ; [x x x 4 3 2 1 0]
palignr m1, m2, 2 ; [x x x x 4 3 2 1]
@@ -1036,7 +1036,7 @@
cmp r4m, byte 21
jnz .load
xchg r2, r3
-.load
+.load:
movh m2, [r2 - 1] ; [x x 4 3 2 1 0 x]
palignr m0, m2, 1 ; [x x x 4 3 2 1 0]
palignr m1, m2, 2 ; [x x x x 4 3 2 1]
@@ -1061,7 +1061,7 @@
cmp r4m, byte 20
jnz .load
xchg r2, r3
-.load
+.load:
movh m2, [r2 - 1] ; [x x 4 3 2 1 0 x]
palignr m0, m2, 1 ; [x x x 4 3 2 1 0]
palignr m1, m2, 2 ; [x x x x 4 3 2 1]
@@ -1086,7 +1086,7 @@
cmp r4m, byte 19
jnz .load
xchg r2, r3
-.load
+.load:
movh m3, [r2 - 1] ; [- - 4 3 2 1 0 x]
palignr m0, m3, 1 ; [- - - 4 3 2 1 0]
palignr m1, m3, 2 ; [- - - - 4 3 2 1]
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/ipfilter16.asm
--- a/source/common/x86/ipfilter16.asm Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/ipfilter16.asm Thu Mar 06 16:12:38 2014 +0530
@@ -135,7 +135,7 @@
add r4d, 7
%endif
-.loopH
+.loopH:
movu m2, [r0] ; m2 = src[0-7]
movu m3, [r0 + 16] ; m3 = src[8-15]
@@ -221,7 +221,7 @@
add r4d, 7
%endif
-.loopH
+.loopH:
movu m2, [r0] ; m2 = src[0-7]
movu m3, [r0 + 16] ; m3 = src[8-15]
@@ -322,7 +322,7 @@
add r4d, 7
%endif
-.loopH
+.loopH:
movu m2, [r0] ; m2 = src[0-7]
movu m3, [r0 + 16] ; m3 = src[8-15]
@@ -445,7 +445,7 @@
add r4d, 7
%endif
-.loopH
+.loopH:
%assign x 0
%rep %1 / 16
movu m2, [r0 + x] ; m2 = src[0-7]
@@ -640,7 +640,7 @@
add r4d, 7
%endif
-.loopH
+.loopH:
movu m2, [r0] ; m2 = src[0-7]
movu m3, [r0 + 16] ; m3 = src[8-15]
@@ -1523,9 +1523,9 @@
%endif
%endif
-.loopH
+.loopH:
mov r4d, (%1/4)
-.loopW
+.loopW:
PROCESS_CHROMA_SP_W4_4R
%ifidn %3, ss
@@ -1720,7 +1720,7 @@
%endif
%endif
-.loopH
+.loopH:
PROCESS_CHROMA_SP_W2_4R r5
%ifidn %2, ss
psrad m0, 6
@@ -1894,7 +1894,7 @@
%endif
%endif
-.loopH
+.loopH:
PROCESS_CHROMA_SP_W4_4R
%ifidn %1, ss
@@ -2057,7 +2057,7 @@
mova m7, [tab_c_n32768]
%endif
-.loopH
+.loopH:
PROCESS_CHROMA_SP_W8_2R
%ifidn %3, ss
@@ -2291,9 +2291,9 @@
mova m7, [pd_32]
mov byte [rsp], %2/4
-.loopH
+.loopH:
mov r4d, (%1/4)
-.loopW
+.loopW:
PROCESS_LUMA_VER_W4_4R
paddd m0, m7
@@ -2387,9 +2387,9 @@
mova m7, [pd_n32768]
mov byte [rsp], %2/4
-.loopH
+.loopH:
mov r4d, (%1/4)
-.loopW
+.loopW:
PROCESS_LUMA_VER_W4_4R
paddd m0, m7
@@ -2479,9 +2479,9 @@
mova m7, [tab_c_524800]
mov byte [rsp], %2/4
-.loopH
+.loopH:
mov r4d, (%1/4)
-.loopW
+.loopW:
PROCESS_LUMA_VER_W4_4R
paddd m0, m7
@@ -2573,9 +2573,9 @@
%endif
mov byte [rsp], %2/4
-.loopH
+.loopH:
mov r4d, (%1/4)
-.loopW
+.loopW:
PROCESS_LUMA_VER_W4_4R
psrad m0, 6
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/ipfilter8.asm
--- a/source/common/x86/ipfilter8.asm Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/ipfilter8.asm Thu Mar 06 16:12:38 2014 +0530
@@ -504,7 +504,7 @@
mova Tm0, [tab_Tm]
mova Tm1, [tab_Tm + 16]
-.loop
+.loop:
FILTER_H4_w%1 t0, t1, t2
add srcq, srcstrideq
add dstq, dststrideq
@@ -555,7 +555,7 @@
mova Tm0, [tab_Tm]
mova Tm1, [tab_Tm + 16]
-.loop
+.loop:
FILTER_H4_w%1 t0, t1, t2, t3
add srcq, srcstrideq
add dstq, dststrideq
@@ -641,7 +641,7 @@
add r4d, 7
%endif
-.loopH
+.loopH:
xor r5, r5
%rep %1 / 8
%ifidn %3, pp
@@ -703,7 +703,7 @@
mova m2, [pw_512] ; m2 = 512
mov r4d, %2
-.loopH
+.loopH:
%assign x 0
%rep %1 / 8
movu m3, [r0 - 3 + x] ; m3 = [F E D C B A 9 8 7 6 5 4 3 2 1 0]
@@ -1006,7 +1006,7 @@
mov r4d, %2
lea r5, [3 * r1]
-.loop
+.loop:
movd m2, [r0]
movd m3, [r0 + r1]
movd m4, [r0 + 2 * r1]
@@ -1212,7 +1212,7 @@
lea r5, [3 * r1]
-.loop
+.loop:
movd m2, [r0]
movd m3, [r0 + r1]
movd m4, [r0 + 2 * r1]
@@ -1580,7 +1580,7 @@
mov r4d, %2/4
lea r5, [3 * r1]
-.loop
+.loop:
movd m2, [r0]
movd m3, [r0 + r1]
movd m4, [r0 + 2 * r1]
@@ -1665,7 +1665,7 @@
mov r4d, %2/2
lea r5, [3 * r1]
-.loopH
+.loopH:
movq m0, [r0]
movq m1, [r0 + r1]
movq m2, [r0 + 2 * r1]
@@ -1733,7 +1733,7 @@
mov r4d, %2/4
lea r5, [3 * r1]
-.loop
+.loop:
movq m0, [r0]
movq m1, [r0 + r1]
movq m2, [r0 + 2 * r1]
@@ -1823,7 +1823,7 @@
lea r5, [3 * r1]
mov r4d, 2
-.loop
+.loop:
movq m0, [r0]
movq m1, [r0 + r1]
movq m2, [r0 + 2 * r1]
@@ -1912,7 +1912,7 @@
mov r4d, 16/2
-.loop
+.loop:
movu m2, [r0]
movu m3, [r0 + r1]
@@ -1993,7 +1993,7 @@
pshufb m0, [tab_Vm + 16]
mov r4d, %2/2
-.loop
+.loop:
movu m2, [r0]
movu m3, [r0 + r1]
@@ -2081,7 +2081,7 @@
mov r4d, 32/2
-.loop
+.loop:
movu m2, [r0]
movu m3, [r0 + r1]
@@ -2196,7 +2196,7 @@
mov r4d, %2
-.loop
+.loop:
movu m2, [r0]
movu m3, [r0 + r1]
@@ -2289,7 +2289,7 @@
mov r4d, %2
-.loop
+.loop:
movq m0, [r0]
movq m1, [r0 + r1]
movq m2, [r0 + 2 * r1]
@@ -2383,7 +2383,7 @@
mov r4d, %2
lea r5, [3 * r1]
-.loop
+.loop:
movq m0, [r0]
movq m1, [r0 + r1]
movq m2, [r0 + 2 * r1]
@@ -2477,7 +2477,7 @@
mov r4d, %2
-.loop
+.loop:
movu m2, [r0]
movu m3, [r0 + r1]
@@ -2565,7 +2565,7 @@
mov r4d, %2
-.loop
+.loop:
movu m2, [r0]
movu m3, [r0 + r1]
@@ -2655,7 +2655,7 @@
mov r4d, %2
-.loop
+.loop:
movu m2, [r0]
movu m3, [r0 + r1]
@@ -2778,7 +2778,7 @@
mov r4d, %2
-.loop
+.loop:
movu m2, [r0]
movu m3, [r0 + r1]
@@ -3058,7 +3058,7 @@
mov r4d, %2/4
lea r5, [4 * r1]
-.loopH
+.loopH:
PROCESS_LUMA_W4_4R
%ifidn %3,pp
@@ -3152,7 +3152,7 @@
mov r4d, %2/4
lea r5, [4 * r1]
-.loopH
+.loopH:
PROCESS_LUMA_W8_4R
%ifidn %3,pp
@@ -3259,7 +3259,7 @@
mov r4d, %2/4
-.loopH
+.loopH:
PROCESS_LUMA_W8_4R
%ifidn %3,pp
@@ -3372,9 +3372,9 @@
%endif
mov byte [rsp], %2/4
-.loopH
+.loopH:
mov r4d, (%1/8)
-.loopW
+.loopW:
PROCESS_LUMA_W8_4R
%ifidn %3,pp
pmulhrsw m7, m3
@@ -3549,9 +3549,9 @@
mova m7, [tab_c_526336]
mov byte [rsp], %2/4
-.loopH
+.loopH:
mov r4d, (%1/4)
-.loopW
+.loopW:
PROCESS_LUMA_SP_W4_4R
paddd m0, m7
@@ -3737,9 +3737,9 @@
mov byte [rsp], %2/4
-.loopH
+.loopH:
mov r4d, (%1/4)
-.loopW
+.loopW:
PROCESS_CHROMA_SP_W4_4R
paddd m0, m6
@@ -3850,7 +3850,7 @@
mov r4d, (%2/4)
-.loopH
+.loopH:
PROCESS_CHROMA_SP_W2_4R r5
paddd m0, m5
@@ -3951,7 +3951,7 @@
mov r4d, 8/4
-.loopH
+.loopH:
PROCESS_CHROMA_SP_W4_4R
paddd m0, m6
@@ -4057,7 +4057,7 @@
mova m7, [tab_c_526336]
mov r4d, %2/2
-.loopH
+.loopH:
PROCESS_CHROMA_SP_W8_2R
paddd m0, m7
@@ -4125,7 +4125,7 @@
sub srcq, srcstrideq
add r4d, 3
-.loopH
+.loopH:
movh t0, [srcq]
pshufb t0, t0, Tm0
pmaddubsw t0, coef2
@@ -4177,7 +4177,7 @@
sub srcq, srcstrideq
add r4d, 3
-.loopH
+.loopH:
movh t0, [srcq]
pshufb t0, t0, Tm0
pmaddubsw t0, coef2
@@ -4263,7 +4263,7 @@
sub srcq, srcstrideq
add r4d, 3
-.loopH
+.loopH:
PROCESS_CHROMA_W%1 t0, t1, t2
add srcq, srcstrideq
add dstq, dststrideq
@@ -4323,7 +4323,7 @@
sub srcq, srcstrideq
add r4d, 3
-.loopH
+.loopH:
PROCESS_CHROMA_W8 t0, t1, t2
add srcq, srcstrideq
add dstq, dststrideq
@@ -4458,7 +4458,7 @@
sub srcq, srcstrideq
add r4d, 3
-.loopH
+.loopH:
PROCESS_CHROMA_W%1 t0, t1, t2, t3
add srcq, srcstrideq
add dstq, dststrideq
@@ -4575,7 +4575,7 @@
mova m1, [pw_2000]
lea r5, [3 * r1]
mov r4d, 2
-.loop
+.loop:
movd m2, [r0]
movd m3, [r0 + r1]
movd m4, [r0 + 2 * r1]
@@ -4657,9 +4657,9 @@
mov byte [rsp], %2/4
-.loopH
+.loopH:
mov r4d, (%1/4)
-.loopW
+.loopW:
PROCESS_CHROMA_SP_W4_4R
psrad m0, 6
@@ -4728,7 +4728,7 @@
mov r4d, (%2/4)
-.loopH
+.loopH:
PROCESS_CHROMA_SP_W2_4R r5
psrad m0, 6
@@ -4820,7 +4820,7 @@
mov r4d, 8/4
-.loopH
+.loopH:
PROCESS_CHROMA_SP_W4_4R
psrad m0, 6
@@ -4882,7 +4882,7 @@
%endif
mov r4d, %2/2
-.loopH
+.loopH:
PROCESS_CHROMA_SP_W8_2R
psrad m0, 6
@@ -4932,9 +4932,9 @@
%endif
mov byte [rsp], %2/4
-.loopH
+.loopH:
mov r4d, (%1/4)
-.loopW
+.loopW:
movq m0, [r0]
movq m1, [r0 + r1]
punpcklwd m0, m1 ;m0=[0 1]
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/mc-a.asm
--- a/source/common/x86/mc-a.asm Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/mc-a.asm Thu Mar 06 16:12:38 2014 +0530
@@ -301,7 +301,7 @@
mov r6d, %1/4
-.loop
+.loop:
%rep 2
movh m0, [r0]
movh m1, [r0 + r3]
@@ -348,7 +348,7 @@
add r5, r5
mov r6d, %1/4
-.loop
+.loop:
%rep 2
movu m0, [r0]
movu m2, [r1]
@@ -395,7 +395,7 @@
add r5, r5
mov r6d, %1/4
-.loop
+.loop:
%rep 2
movu m0, [r0]
movu m2, [r1]
@@ -455,7 +455,7 @@
add r5, r5
mov r6d, %1/4
-.loop
+.loop:
%rep 2
movu m0, [r0]
movu m2, [r1]
@@ -523,7 +523,7 @@
mov r6d, %2/2
-.loop
+.loop:
movu m0, [r0]
movu m2, [r1]
paddw m0, m2
@@ -603,7 +603,7 @@
mov r6d, %1/2
-.loop
+.loop:
movu m0, [r0]
movu m2, [r1]
paddw m0, m2
@@ -705,7 +705,7 @@
mov r6d, %1/2
-.loop
+.loop:
movu m0, [r0]
movu m2, [r1]
paddw m0, m2
@@ -838,7 +838,7 @@
add r5, r5
mov r6d, %1
-.loop
+.loop:
movu m0, [r0]
movu m2, [r1]
paddw m0, m2
@@ -1087,7 +1087,7 @@
mov r6d, %1/4
-.loop
+.loop:
movh m0, [r0]
movhps m0, [r0 + r3]
movh m2, [r1]
@@ -1337,7 +1337,7 @@
mov r6d, %1/4
-.loop
+.loop:
movu m0, [r0]
movu m2, [r1]
paddw m0, m2
@@ -1406,7 +1406,7 @@
mov r6d, %1/4
-.loop
+.loop:
movu m0, [r0]
movu m2, [r1]
paddw m0, m2
@@ -1499,7 +1499,7 @@
mov r6d, %1/4
-.loop
+.loop:
movu m0, [r0]
movu m2, [r1]
paddw m0, m2
@@ -1594,7 +1594,7 @@
mov r6d, %2/2
-.loop
+.loop:
movu m0, [r0]
movu m2, [r1]
paddw m0, m2
@@ -1667,7 +1667,7 @@
mov r6d, %1/2
-.loop
+.loop:
movu m0, [r0]
movu m2, [r1]
paddw m0, m2
@@ -1758,7 +1758,7 @@
mov r6d, %1/2
-.loop
+.loop:
movu m0, [r0]
movu m2, [r1]
paddw m0, m2
@@ -1873,7 +1873,7 @@
mov r6d, %1
-.loop
+.loop:
movu m0, [r0]
movu m2, [r1]
paddw m0, m2
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/pixel-util8.asm
--- a/source/common/x86/pixel-util8.asm Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/pixel-util8.asm Thu Mar 06 16:12:38 2014 +0530
@@ -1247,7 +1247,7 @@
pshuflw m1, m1, 0
punpcklqdq m1, m1
-.loop
+.loop:
mova m2, [r0]
mova m3, [r0 + 16]
add r0, 32
@@ -1288,7 +1288,7 @@
sub r2d, r4d
sub r3d, r4d
-.loopH
+.loopH:
mov r6d, r4d
shr r6d, 4
.loopW:
@@ -1372,7 +1372,7 @@
add r2d, r2d
-.loopH
+.loopH:
mov r6d, r4d
; save old src and dst
@@ -1404,7 +1404,7 @@
jmp .loopW
-.width4
+.width4:
cmp r6d, -4
jl .width2
movd [r1], m6
@@ -1412,10 +1412,10 @@
add r1, 4
pshufd m6, m6, 1
-.width2
+.width2:
pextrw [r1], m6, 0
-.nextH
+.nextH:
mov r0, tmp_r0
mov r1, tmp_r1
lea r0, [r0 + r2]
@@ -2401,7 +2401,7 @@
mov r3d, 32
mova m7, [deinterleave_word_shuf]
add r2, r2
-.loop
+.loop:
movu m0, [r1] ;i
psrld m1, m0, 16 ;j
movu m2, [r1 + r2] ;k
@@ -2572,7 +2572,7 @@
cglobal scale2D_64to32, 3, 4, 8, dest, src, stride
mov r3d, 32
mova m7, [deinterleave_shuf]
-.loop
+.loop:
movu m0, [r1] ;i
psrlw m1, m0, 8 ;j
@@ -3055,7 +3055,7 @@
%if HIGH_BIT_DEPTH
add r4, r4
add r5, r5
-.loop
+.loop:
movh m0, [r2]
movh m1, [r3]
movh m2, [r2 + r4]
@@ -3077,7 +3077,7 @@
lea r0, [r0 + 2 * r1]
movh [r0 + r1], m6
%else
-.loop
+.loop:
movd m0, [r2]
movd m1, [r3]
movd m2, [r2 + r4]
@@ -3133,7 +3133,7 @@
%if HIGH_BIT_DEPTH
add r4, r4
add r5, r5
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
psubw m0, m1
@@ -3166,7 +3166,7 @@
movhlps m0, m0
movd [r0 + r1 + 8], m0
%else
-.loop
+.loop:
movh m0, [r2]
pmovzxbw m0, m0
movh m1, [r3]
@@ -3353,7 +3353,7 @@
%if HIGH_BIT_DEPTH
add r4, r4
add r5, r5
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + r4]
@@ -3366,7 +3366,7 @@
movu m7, [r3 + r5]
%else
-.loop
+.loop:
movh m0, [r2]
movh m1, [r3]
pmovzxbw m0, m0
@@ -3429,7 +3429,7 @@
%if HIGH_BIT_DEPTH
add r4, r4
add r5, r5
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movh m2, [r2 + 16]
@@ -3469,7 +3469,7 @@
movu [r0 + r1], m4
movh [r0 + r1 + 16], m6
%else
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + r4]
@@ -3545,7 +3545,7 @@
mov r6d, %2/4
add r4, r4
add r5, r5
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + 16]
@@ -3589,7 +3589,7 @@
add r1, r1
mov r6d, %2/4
pxor m6, m6
-.loop
+.loop:
movu m1, [r2]
pmovzxbw m0, m1
punpckhbw m1, m6
@@ -3675,7 +3675,7 @@
mov r6d, %2/2
add r4, r4
add r5, r5
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + 16]
@@ -3708,7 +3708,7 @@
add r1, r1
mov r6d, %2/2
pxor m6, m6
-.loop
+.loop:
movu m1, [r2]
pmovzxbw m0, m1
punpckhbw m1, m6
@@ -3773,7 +3773,7 @@
%if HIGH_BIT_DEPTH
add r4, r4
add r5, r5
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + 16]
@@ -3810,7 +3810,7 @@
movu [r0 + r1 + 32], m4
movu [r0 + r1 + 48], m3
%else
-.loop
+.loop:
movh m0, [r2]
movh m1, [r2 + 8]
movh m2, [r2 + 16]
@@ -3897,7 +3897,7 @@
mov r6d, %2/2
add r4, r4
add r5, r5
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + 16]
@@ -3959,7 +3959,7 @@
add r1, r1
mov r6d, %2/2
pxor m6, m6
-.loop
+.loop:
movu m1, [r2]
pmovzxbw m0, m1
punpckhbw m1, m6
@@ -4059,7 +4059,7 @@
mov r6d, %2/2
add r4, r4
add r5, r5
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + 16]
@@ -4138,7 +4138,7 @@
add r1, r1
mov r6d, %2/2
pxor m6, m6
-.loop
+.loop:
movu m1, [r2]
pmovzxbw m0, m1
punpckhbw m1, m6
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/pixeladd8.asm
--- a/source/common/x86/pixeladd8.asm Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/pixeladd8.asm Thu Mar 06 16:12:38 2014 +0530
@@ -127,7 +127,7 @@
pxor m4, m4
mov r6d, %2/4
mova m5, [pw_pixel_max]
-.loop
+.loop:
movd m0, [r2]
movd m1, [r3]
movd m2, [r2 + r4]
@@ -163,7 +163,7 @@
mov r6d, %2/4
-.loop
+.loop:
pmovzxbw m0, [r2]
movd m1, [r3]
@@ -272,7 +272,7 @@
add r5, r5
pxor m0, m0
mova m1, [pw_pixel_max]
-.loop
+.loop:
movh m2, [r2]
movhps m2, [r2 + r4]
@@ -308,7 +308,7 @@
mov r6d, %2/4
-.loop
+.loop:
pmovzxbw m0, [r2]
movh m1, [r3]
@@ -373,7 +373,7 @@
add r5, r5
pxor m4, m4
mova m5, [pw_pixel_max]
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + r4]
@@ -416,7 +416,7 @@
mov r6d, %2/4
-.loop
+.loop:
pmovzxbw m0, [r2]
movu m1, [r3]
@@ -648,7 +648,7 @@
add r5, r5
pxor m4, m4
mova m5, [pw_pixel_max]
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + r4]
@@ -684,7 +684,7 @@
mov r6d, %2/4
-.loop
+.loop:
pmovzxbw m0, [r2]
movu m1, [r3]
@@ -750,7 +750,7 @@
add r5, r5
pxor m4, m4
mova m5, [pw_pixel_max]
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movh m2, [r2 + 16]
@@ -809,7 +809,7 @@
mov r6d, %2/4
-.loop
+.loop:
pmovzxbw m0, [r2]
pmovzxbw m1, [r2 + 8]
@@ -899,7 +899,7 @@
add r5, r5
pxor m4, m4
mova m5, [pw_pixel_max]
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + 16]
@@ -959,7 +959,7 @@
mov r6d, %2/4
-.loop
+.loop:
pmovzxbw m0, [r2]
pmovzxbw m1, [r2 + 8]
@@ -1046,7 +1046,7 @@
add r5, r5
pxor m4, m4
mova m5, [pw_pixel_max]
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + 16]
@@ -1089,7 +1089,7 @@
add r5, r5
mov r6d, %2/2
-.loop
+.loop:
pmovzxbw m0, [r2]
pmovzxbw m1, [r2 + 8]
pmovzxbw m2, [r2 + 16]
@@ -1151,7 +1151,7 @@
add r5, r5
pxor m4, m4
mova m5, [pw_pixel_max]
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + 16]
@@ -1206,7 +1206,7 @@
add r5, r5
mov r6d, %2/2
-.loop
+.loop:
pmovzxbw m0, [r2]
pmovzxbw m1, [r2 + 8]
pmovzxbw m2, [r2 + 16]
@@ -1278,7 +1278,7 @@
add r5, r5
pxor m4, m4
mova m5, [pw_pixel_max]
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + 16]
@@ -1358,7 +1358,7 @@
mov r6d, %2/2
-.loop
+.loop:
pmovzxbw m0, [r2]
pmovzxbw m1, [r2 + 8]
pmovzxbw m2, [r2 + 16]
@@ -1452,7 +1452,7 @@
add r5, r5
pxor m4, m4
mova m5, [pw_pixel_max]
-.loop
+.loop:
movu m0, [r2]
movu m1, [r3]
movu m2, [r2 + 16]
@@ -1555,7 +1555,7 @@
add r5, r5
mov r6d, %2/2
-.loop
+.loop:
pmovzxbw m0, [r2]
pmovzxbw m1, [r2 + 8]
pmovzxbw m2, [r2 + 16]
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/sad-a.asm
--- a/source/common/x86/sad-a.asm Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/sad-a.asm Thu Mar 06 16:12:38 2014 +0530
@@ -504,7 +504,7 @@
cglobal pixel_sad_16x32, 4,5,3
pxor m0, m0
mov r4d, 4
-.loop
+.loop:
PROCESS_SAD_16x4
PROCESS_SAD_16x4
dec r4d
@@ -521,7 +521,7 @@
cglobal pixel_sad_16x64, 4,5,3
pxor m0, m0
mov r4d, 8
-.loop
+.loop:
PROCESS_SAD_16x4
PROCESS_SAD_16x4
dec r4d
@@ -576,7 +576,7 @@
cglobal pixel_sad_32x24, 4,5,3
pxor m0, m0
mov r4d, 3
-.loop
+.loop:
PROCESS_SAD_32x4
PROCESS_SAD_32x4
dec r4d
@@ -593,7 +593,7 @@
cglobal pixel_sad_32x32, 4,5,3
pxor m0, m0
mov r4d, 4
-.loop
+.loop:
PROCESS_SAD_32x4
PROCESS_SAD_32x4
dec r4d
@@ -626,7 +626,7 @@
cglobal pixel_sad_32x64, 4,5,3
pxor m0, m0
mov r4d, 8
-.loop
+.loop:
PROCESS_SAD_32x4
PROCESS_SAD_32x4
dec r4d
@@ -643,7 +643,7 @@
cglobal pixel_sad_8x32, 4,5,3
pxor m0, m0
mov r4d, 4
-.loop
+.loop:
PROCESS_SAD_8x4
PROCESS_SAD_8x4
dec r4d
@@ -677,7 +677,7 @@
pxor m0, m0
mov r4, 4
-.loop
+.loop:
PROCESS_SAD_64x4
PROCESS_SAD_64x4
@@ -696,7 +696,7 @@
pxor m0, m0
mov r4, 6
-.loop
+.loop:
PROCESS_SAD_64x4
PROCESS_SAD_64x4
dec r4d
@@ -714,7 +714,7 @@
pxor m0, m0
mov r4, 8
-.loop
+.loop:
PROCESS_SAD_64x4
PROCESS_SAD_64x4
dec r4
@@ -732,7 +732,7 @@
pxor m0, m0
mov r4, 64
-.loop
+.loop:
PROCESS_SAD_48x4
lea r2, [r2 + r3]
lea r0, [r0 + r1]
@@ -762,7 +762,7 @@
pxor m0, m0
mov r4, 32
-.loop
+.loop:
PROCESS_SAD_24x4
lea r2, [r2 + r3]
lea r0, [r0 + r1]
@@ -2862,7 +2862,7 @@
pxor m2, m2
mov r6, 32
-.loop
+.loop:
SAD_X3_24x4
SAD_X3_24x4
SAD_X3_24x4
@@ -2888,7 +2888,7 @@
pxor m3, m3
mov count, 32
-.loop
+.loop:
SAD_X4_24x4
SAD_X4_24x4
SAD_X4_24x4
@@ -2940,7 +2940,7 @@
pxor m2, m2
mov r6, 32
-.loop
+.loop:
SAD_X3_32x4
SAD_X3_32x4
SAD_X3_32x4
@@ -2957,7 +2957,7 @@
pxor m2, m2
mov r6, 64
-.loop1
+.loop1:
SAD_X3_32x4
SAD_X3_32x4
SAD_X3_32x4
@@ -3019,7 +3019,7 @@
pxor m3, m3
mov count, 32
-.loop
+.loop:
SAD_X4_32x4
SAD_X4_32x4
SAD_X4_32x4
@@ -3042,7 +3042,7 @@
pxor m3, m3
mov count, 64
-.loop
+.loop:
SAD_X4_32x4
SAD_X4_32x4
SAD_X4_32x4
@@ -3061,7 +3061,7 @@
pxor m2, m2
mov r6, 64
-.loop
+.loop:
SAD_X3_48x4
SAD_X3_48x4
SAD_X3_48x4
@@ -3086,7 +3086,7 @@
pxor m3, m3
mov count, 64
-.loop
+.loop:
SAD_X4_48x4
SAD_X4_48x4
SAD_X4_48x4
@@ -3104,7 +3104,7 @@
pxor m2, m2
mov r6, 16
-.loop
+.loop:
SAD_X3_64x4
SAD_X3_64x4
@@ -3118,7 +3118,7 @@
pxor m2, m2
mov r6, 32
-.loop
+.loop:
SAD_X3_64x4
SAD_X3_64x4
@@ -3132,7 +3132,7 @@
pxor m2, m2
mov r6, 48
-.loop
+.loop:
SAD_X3_64x4
SAD_X3_64x4
@@ -3146,7 +3146,7 @@
pxor m2, m2
mov r6, 64
-.loop
+.loop:
SAD_X3_64x4
SAD_X3_64x4
@@ -3169,7 +3169,7 @@
pxor m3, m3
mov count, 16
-.loop
+.loop:
SAD_X4_64x4
SAD_X4_64x4
@@ -3190,7 +3190,7 @@
pxor m3, m3
mov count, 32
-.loop
+.loop:
SAD_X4_64x4
SAD_X4_64x4
@@ -3211,7 +3211,7 @@
pxor m3, m3
mov count, 48
-.loop
+.loop:
SAD_X4_64x4
SAD_X4_64x4
@@ -3232,7 +3232,7 @@
pxor m3, m3
mov count, 64
-.loop
+.loop:
SAD_X4_64x4
SAD_X4_64x4
diff -r 889edfd2c4c3 -r 317a94a3995b source/common/x86/ssd-a.asm
--- a/source/common/x86/ssd-a.asm Thu Mar 06 00:00:42 2014 -0600
+++ b/source/common/x86/ssd-a.asm Thu Mar 06 16:12:38 2014 +0530
@@ -76,7 +76,7 @@
mov r4d, %%n
%endif
pxor m0, m0
-.loop
+.loop:
movu m1, [r0]
movu m2, [r0+offset0_1]
movu m3, [r0+offset0_2]
@@ -120,7 +120,7 @@
mov r4d, %2/2
lea r5, [r1 * 2]
lea r6, [r3 * 2]
-.loop
+.loop:
movu m1, [r0]
movu m2, [r0 + 16]
movu m3, [r0 + 32]
@@ -220,7 +220,7 @@
mov r4d, %2/2
lea r5, [r1 * 2]
lea r6, [r3 * 2]
-.loop
+.loop:
movu m1, [r0]
movu m2, [r0 + 16]
movu m3, [r0 + 32]
@@ -266,7 +266,7 @@
mov r4d, %2/4
lea r5, [r1 * 2]
lea r6, [r3 * 2]
-.loop
+.loop:
movu m1, [r0]
movh m2, [r0 + 16]
movu m3, [r0 + r1]
@@ -384,7 +384,7 @@
mov r4d, %%n
%endif
pxor m0, m0
-.loop
+.loop:
%if %1 == 4
movh m1, [r0]
movh m2, [r2]
@@ -464,7 +464,7 @@
FIX_STRIDES r1, r3
mov r4d, 8
pxor m0, m0
-.loop
+.loop:
movu m1, [r0]
movu m2, [r2]
psubw m1, m2
@@ -506,7 +506,7 @@
FIX_STRIDES r1, r3
mov r4d, %1/2
pxor m0, m0
-.loop
+.loop:
movu m1, [r0]
movu m2, [r2]
psubw m1, m2
@@ -572,7 +572,7 @@
FIX_STRIDES r1, r3
mov r4d, 16
pxor m0, m0
-.loop
+.loop:
movu m1, [r0]
movu m2, [r2]
psubw m1, m2
@@ -620,7 +620,7 @@
FIX_STRIDES r1, r3
mov r4d, 32
pxor m0, m0
-.loop
+.loop:
movu m1, [r0]
movu m2, [r2]
psubw m1, m2
@@ -698,7 +698,7 @@
FIX_STRIDES r1, r3
mov r4d, %1/2
pxor m0, m0
-.loop
+.loop:
movu m1, [r0]
movu m2, [r2]
psubw m1, m2
@@ -1107,7 +1107,7 @@
pxor m6, m6
mov r4d, 4
-.loop
+.loop:
movu m0, [r0]
movu m1, [r2]
movu m2, [r0 + r1]
@@ -1184,7 +1184,7 @@
pxor m6, m6
mov r4d, 16
-.loop
+.loop:
movu m1, [r0]
pmovzxbw m0, m1
punpckhbw m1, m6
More information about the x265-devel
mailing list