2 @@ Copyright (C) 2012 Roman Pauer
\r
4 @@ Permission is hereby granted, free of charge, to any person obtaining a copy of
\r
5 @@ this software and associated documentation files (the "Software"), to deal in
\r
6 @@ the Software without restriction, including without limitation the rights to
\r
7 @@ use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies
\r
8 @@ of the Software, and to permit persons to whom the Software is furnished to do
\r
9 @@ so, subject to the following conditions:
\r
11 @@ The above copyright notice and this permission notice shall be included in all
\r
12 @@ copies or substantial portions of the Software.
\r
14 @@ THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
\r
15 @@ IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
\r
16 @@ FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
\r
17 @@ AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
\r
18 @@ LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
\r
19 @@ OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
\r
24 @ A B C --\ E0 E1 E2
\r
25 @ D E F --/ E3 E4 E5
\r
40 @ q12 = S2prev < E >
\r
42 @ q14 = S1prev < B >
\r
43 @ q15 = S3prev < H >
\r
46 .macro ___neon_scale3x_8_8_slice counter, dst1, dst2, dst3, reg1, dB0, dB1, dH0, dH1, first15, last16
\r
64 vceq.i8 d15, \dB0, \dH0 @ tmp0[0] = < B == H >
\r
66 vceq.i8 d23, d2, d8 @ tmp1[0] = < D == F >
\r
72 vceq.i8 q0, q12, q0 @ tmp2 = < E == A >
\r
74 vceq.i8 q3, q12, q3 @ tmp3 = < E == C >
\r
77 add \reg1, \reg1, \reg1, lsl #1 @ reg1 = 3 * (counter & 15)
\r
80 vorr d27, d15, d23 @ C0[0] = < B == H || D == F >
\r
82 vceq.i8 d22, d2, \dB0 @ E3[0] = < D == B >
\r
84 vceq.i8 d26, \dB0, d8 @ E5[0] = < B == F >
\r
86 vceq.i8 q2, q12, q2 @ tmp4 = < E == G >
\r
88 vceq.i8 q5, q12, q5 @ tmp5 = < E == I >
\r
91 sub \reg1, \reg1, #(3*8) @ reg1 -= 3*8
\r
94 vorn d15, d6, d22 @ tmp0[0] = < (E == C) || !(D == B) >
\r
96 vorn d23, d0, d26 @ tmp1[0] = < (E == A) || !(B == F) >
\r
98 vorn d12, d27, d22 @ E0[0] = < C0 || !(D == B) >
\r
100 vand d13, d15, d23 @ E1[0] = < ((E == C) || !(D == B)) && ((E == A) || !(B == F)) >
\r
102 vorn d14, d27, d26 @ E2[0] = < C0 || !(B == F) >
\r
104 vorr d13, d27, d13 @ E1[0] = < C0 || (((E == C) || !(D == B)) && ((E == A) || !(B == F))) >
\r
106 vbsl d12, d24, d2 @ E0[0] = < (C0 || !(D == B)) ? E : D >
\r
108 vbsl d14, d24, d8 @ E2[0] = < (C0 || !(B == F)) ? E : F >
\r
110 vbsl d13, d24, \dB0 @ E1[0] = < (C0 || (((E == C) || !(D == B)) && ((E == A) || !(B == F)))) ? E : B >
\r
112 vceq.i8 d15, d2, \dH0 @ tmp0[0] = < D == H >
\r
114 vceq.i8 d23, \dH0, d8 @ tmp1[0] = < H == F >
\r
116 vorn d22, d4, d22 @ E3[0] = < (E == G) || !(D == B) >
\r
117 vst3.8 {d12-d14}, [\dst1]! @ [dst] = E0,E1,E2; dst1 += 3*8
\r
120 addls \dst1, \dst1, \reg1 @ dst1 += reg1
\r
123 vorn d26, d10, d26 @ E5[0] = < (E == I) || !(B == F) >
\r
128 vorn d12, d0, d15 @ tmp6[0] = < (E == A) || !(D == H) >
\r
130 vorn d13, d6, d23 @ tmp7[0] = < (E == C) || !(H == F) >
\r
132 vand d22, d22, d12 @ E3[0] = < ((E == G) || !(D == B)) && ((E == A) || !(D == H)) >
\r
134 vand d26, d26, d13 @ E5[0] = < ((E == I) || !(B == F)) && ((E == C) || !(H == F)) >
\r
140 vorr d22, d27, d22 @ E3[0] = < C0 || (((E == G) || !(D == B)) && ((E == A) || !(D == H))) >
\r
142 vorr d26, d27, d26 @ E5[0] = < C0 || (((E == I) || !(B == F)) && ((E == C) || !(H == F))) >
\r
144 vbsl d22, d24, d2 @ E3[0] = < (C0 || (((E == G) || !(D == B)) && ((E == A) || !(D == H)))) ? E : D >
\r
146 vbsl d26, d24, d8 @ E5[0] = < (C0 || (((E == I) || !(B == F)) && ((E == C) || !(H == F)))) ? E : F >
\r
148 vorn d13, d10, d15 @ E7[0] = < (E == I) || !(D == H) >
\r
150 vorn d12, d27, d15 @ E6[0] = < C0 || !(D == H) >
\r
151 vst3.8 {d22,d24,d26}, [\dst2]! @ [dst + dststride] = E3,E4,E5; dst2 += 3*8
\r
154 addls \dst2, \dst2, \reg1 @ dst2 += reg1
\r
157 vorn d15, d4, d23 @ tmp0[0] = < (E == G) || !(H == F) >
\r
159 vorn d14, d27, d23 @ E8[0] = < C0 || !(H == F) >
\r
161 vand d13, d13, d15 @ E7[0] = < ((E == I) || !(D == H)) && ((E == G) || !(H == F)) >
\r
163 vbsl d12, d24, d2 @ E6[0] = < (C0 || !(D == H)) ? E : D >
\r
165 vorr d13, d27, d13 @ E7[0] = < C0 || (((E == I) || !(D == H)) && ((E == G) || !(H == F))) >
\r
167 vbsl d14, d24, d8 @ E8[0] = < (C0 || !(H == F)) ? E : F >
\r
169 vbsl d13, d24, \dH0 @ E7[0] = < (C0 || (((E == I) || !(D == H)) && ((E == G) || !(H == F)))) ? E : H >
\r
179 vceq.i8 d15, \dB1, \dH1 @ tmp0[1] = < B == H >
\r
181 vceq.i8 d22, d3, d9 @ tmp1[1] = < D == F >
\r
183 vceq.i8 d23, d3, \dB1 @ E3[1] = < D == B >
\r
184 vst3.8 {d12-d14}, [\dst3]! @ [dst + 2 * dststride] = E6,E7,E8; dst3 += 3*8
\r
187 addls \dst3, \dst3, \reg1 @ dst3 += reg1
\r
195 vorr d26, d15, d22 @ C0[1] = < B == H || D == F >
\r
197 vceq.i8 d27, \dB1, d9 @ E5[1] = < B == F >
\r
199 vorn d15, d7, d23 @ tmp0[1] = < (E == C) || !(D == B) >
\r
201 vorn d22, d1, d27 @ tmp1[1] = < (E == A) || !(B == F) >
\r
203 vorn d12, d26, d23 @ E0[1] = < C0 || !(D == B) >
\r
205 vand d13, d15, d22 @ E1[1] = < ((E == C) || !(D == B)) && ((E == A) || !(B == F)) >
\r
207 vorn d14, d26, d27 @ E2[1] = < C0 || !(B == F) >
\r
209 vorr d13, d26, d13 @ E1[1] = < C0 || (((E == C) || !(D == B)) && ((E == A) || !(B == F))) >
\r
211 vbsl d12, d25, d3 @ E0[1] = < (C0 || !(D == B)) ? E : D >
\r
213 vbsl d14, d25, d9 @ E2[1] = < (C0 || !(B == F)) ? E : F >
\r
215 vbsl d13, d25, \dB1 @ E1[1] = < (C0 || (((E == C) || !(D == B)) && ((E == A) || !(B == F)))) ? E : B >
\r
217 vceq.i8 d15, d3, \dH1 @ tmp0[1] = < D == H >
\r
219 vceq.i8 d22, \dH1, d9 @ tmp1[1] = < H == F >
\r
221 vorn d23, d5, d23 @ E3[1] = < (E == G) || !(D == B) >
\r
223 vst3.8 {d12-d14}, [\dst1]! @ [dst] = E0,E1,E2; dst1 += 3*8
\r
225 vst3.8 {d12-d14}, [\dst1],\reg1 @ [dst] = E0,E1,E2; dst1 += reg1
\r
228 vorn d27, d11, d27 @ E5[1] = < (E == I) || !(B == F) >
\r
233 vorn d12, d1, d15 @ tmp6[1] = < (E == A) || !(D == H) >
\r
235 vorn d13, d7, d22 @ tmp7[1] = < (E == C) || !(H == F) >
\r
237 vand d23, d23, d12 @ E3[1] = < ((E == G) || !(D == B)) && ((E == A) || !(D == H)) >
\r
239 vand d27, d27, d13 @ E5[1] = < ((E == I) || !(B == F)) && ((E == C) || !(H == F)) >
\r
245 vorr d23, d26, d23 @ E3[1] = < C0 || (((E == G) || !(D == B)) && ((E == A) || !(D == H))) >
\r
247 vorr d27, d26, d27 @ E5[1] = < C0 || (((E == I) || !(B == F)) && ((E == C) || !(H == F))) >
\r
249 vbsl d23, d25, d3 @ E3[1] = < (C0 || (((E == G) || !(D == B)) && ((E == A) || !(D == H)))) ? E : D >
\r
251 vbsl d27, d25, d9 @ E5[1] = < (C0 || (((E == I) || !(B == F)) && ((E == C) || !(H == F)))) ? E : F >
\r
253 vorn d13, d11, d15 @ E7[1] = < (E == I) || !(D == H) >
\r
255 vorn d12, d26, d15 @ E6[1] = < C0 || !(D == H) >
\r
257 vst3.8 {d23,d25,d27}, [\dst2]! @ [dst + dststride] = E3,E4,E5; dst2 += 3*8
\r
259 vst3.8 {d23,d25,d27}, [\dst2],\reg1 @ [dst + dststride] = E3,E4,E5; dst2 += reg1
\r
262 vorn d15, d5, d22 @ tmp0[1] = < (E == G) || !(H == F) >
\r
264 vorn d14, d26, d22 @ E8[1] = < C0 || !(H == F) >
\r
266 vand d13, d13, d15 @ E7[1] = < ((E == I) || !(D == H)) && ((E == G) || !(H == F)) >
\r
268 vbsl d12, d25, d3 @ E6[1] = < (C0 || !(D == H)) ? E : D >
\r
270 vorr d13, d26, d13 @ E7[1] = < C0 || (((E == I) || !(D == H)) && ((E == G) || !(H == F))) >
\r
272 vbsl d14, d25, d9 @ E8[1] = < (C0 || !(H == F)) ? E : F >
\r
274 vbsl d13, d25, \dH1 @ E7[1] = < (C0 || (((E == I) || !(D == H)) && ((E == G) || !(H == F)))) ? E : H >
\r
279 sub \counter, \counter, #16 @ counter -= 16
\r
283 vst3.8 {d12-d14}, [\dst3]! @ [dst + 2 * dststride] = E6,E7,E8; dst3 += 3*8
\r
285 vst3.8 {d12-d14}, [\dst3],\reg1 @ [dst + 2 * dststride] = E6,E7,E8; dst3 += reg1
\r
292 .macro __neon_scale3x_8_8_line src1, src2, src3, counter, dst1, dst2, dst3, reg1, qB, qH, dB0, dB1, dH0, dH1, alsrc1, alsrc2, alsrc3, aldst1, aldst2, aldst3
\r
294 .ifeqs "\qB", "q14"
\r
295 vld1.8 {d29[7]}, [\src1] @ S1prev[15] = src[-srcstride]
\r
297 vld1.8 {d25[7]}, [\src2] @ S2prev[15] = src[0]
\r
298 .ifeqs "\qH", "q15"
\r
299 vld1.8 {d31[7]}, [\src3] @ S3prev[15] = src[srcstride]
\r
301 andS \reg1, \counter, #15 @ reg1 = counter & 15
\r
303 .ifnes "\qB", "q14"
\r
304 add \src1, \src1, \counter @ src1 += counter
\r
306 .ifnes "\qH", "q15"
\r
307 add \src3, \src3, \counter @ src3 += counter
\r
311 @ first 1-15 pixels - align counter to 16 bytes
\r
313 sub \reg1, \reg1, #1 @ reg1 = (counter & 15) - 1
\r
315 .ifeqs "\qB", "q14"
\r
316 vld1.8 {q8}, [\src1] @ S1 = [src - srcstride]
\r
317 add \src1, \src1, \reg1 @ src1 += (counter & 15) - 1
\r
320 vld1.8 {q9}, [\src2] @ S2 = [src ]
\r
321 add \src2, \src2, \reg1 @ src2 += (counter & 15) - 1
\r
323 .ifeqs "\qH", "q15"
\r
324 vld1.8 {q10}, [\src3] @ S3 = [src + srcstride]
\r
325 add \src3, \src3, \reg1 @ src3 += (counter & 15) - 1
\r
327 .ifeqs "\qB", "q14"
\r
328 vext.8 q0, \qB, q8, #15 @ S1sl = S1prev[15] | (S1 << 8) < S >
\r
330 vmov \qB, q8 @ S1prev = S1 < T >
\r
332 vext.8 q1, q12, q9, #15 @ S2sl = S2prev[15] | (S2 << 8) < V >
\r
334 vmov q12, q9 @ S2prev = S2 < C >
\r
335 .ifeqs "\qH", "q15"
\r
336 vext.8 q2, \qH, q10, #15 @ S3sl = S3prev[15] | (S3 << 8) < X >
\r
338 vmov \qH, q10 @ S3prev = S3 < Y >
\r
340 .ifeqs "\qB", "q14"
\r
341 vext.8 q3, \qB, q8, #1 @ S1sr = (S1prev >> 8) | ... < U >
\r
344 vext.8 q4, q12, q9, #1 @ S2sr = (S2prev >> 8) | ... < W >
\r
346 .ifeqs "\qH", "q15"
\r
347 vext.8 q5, \qH, q10, #1 @ S3sr = (S3prev >> 8) | ... < Z >
\r
349 vmov q2, q1 @ S3sl = S2sl < X >
\r
351 vmov q5, q4 @ S3sr = S2sr < Z >
\r
354 .ifnes "\qB", "q14"
\r
355 vmov q0, q1 @ S1sl = S2sl < S >
\r
357 vmov q3, q4 @ S1sr = S2sr < U >
\r
359 vld1.8 {d29[7]}, [\src1]! @ S1prev[15] = src[counter & 15 - 1 - srcstride]; src1++
\r
362 add \reg1, \reg1, #1 @ reg1 = counter & 15
\r
364 vld1.8 {d25[7]}, [\src2]! @ S2prev[15] = src[counter & 15 - 1]; src2++
\r
366 bic \counter, \counter, #15
\r
368 .ifeqs "\qH", "q15"
\r
369 vld1.8 {d31[7]}, [\src3]! @ S3prev[15] = src[counter & 15 - 1 + srcstride]; src3++
\r
372 ___neon_scale3x_8_8_slice \counter, \dst1, \dst2, \dst3, \reg1, \dB0, \dB1, \dH0, \dH1, 1, 0
\r
375 @ counter is aligned to 16 bytes
\r
378 .ifeqs "\qB", "q14"
\r
379 vld1.8 {q8}, [\alsrc1]! @ S1 = [src - srcstride]; src1 += 16
\r
381 vld1.8 {q9}, [\alsrc2]! @ S2 = [src ]; src2 += 16
\r
382 .ifeqs "\qH", "q15"
\r
383 vld1.8 {q10}, [\alsrc3]! @ S3 = [src + srcstride]; src3 += 16
\r
386 @ inner loop (16 pixels per iteration)
\r
389 .ifeqs "\qB", "q14"
\r
390 vext.8 q0, \qB, q8, #15 @ S1sl = S1prev[15] | (S1 << 8) < A >
\r
391 vmov \qB, q8 @ S1prev = S1 < B >
\r
394 vext.8 q1, q12, q9, #15 @ S2sl = S2prev[15] | (S2 << 8) < D >
\r
395 vmov q12, q9 @ S2prev = S2 < E >
\r
397 .ifeqs "\qH", "q15"
\r
398 vext.8 q2, \qH, q10, #15 @ S3sl = S3prev[15] | (S3 << 8) < G >
\r
399 vmov \qH, q10 @ S3prev = S3 < H >
\r
402 .ifeqs "\qB", "q14"
\r
403 vld1.8 {q8}, [\alsrc1]! @ S1 = [src - srcstride]; src1 += 16
\r
404 vext.8 q3, \qB, q8, #1 @ S1sr = (S1prev >> 8) | S1[0] < C >
\r
407 vld1.8 {q9}, [\alsrc2]! @ S2 = [src ]; src2 += 16
\r
408 vext.8 q4, q12, q9, #1 @ S2sr = (S2prev >> 8) | S2[0] < F >
\r
410 .ifeqs "\qH", "q15"
\r
411 vld1.8 {q10}, [\alsrc3]! @ S3 = [src + srcstride]; src3 += 16
\r
412 vext.8 q5, \qH, q10, #1 @ S3sr = (S3prev >> 8) | S3[0] < I >
\r
414 vmov q2, q1 @ S3sl = S2sl < G >
\r
416 vmov q5, q4 @ S3sr = S2sr < I >
\r
419 .ifnes "\qB", "q14"
\r
420 vmov q0, q1 @ S1sl = S2sl < A >
\r
422 vmov q3, q4 @ S1sr = S2sr < C >
\r
425 ___neon_scale3x_8_8_slice \counter, \aldst1, \aldst2, \aldst3, \reg1, \dB0, \dB1, \dH0, \dH1, 0, 0
\r
431 .ifeqs "\qB", "q14"
\r
432 vext.8 q0, \qB, q8, #15 @ S1sl = S1prev[15] | (S1 << 8) < A >
\r
433 vmov \qB, q8 @ S1prev = S1 < B >
\r
436 vext.8 q1, q12, q9, #15 @ S2sl = S2prev[15] | (S2 << 8) < D >
\r
437 vmov q12, q9 @ S2prev = S2 < E >
\r
439 .ifeqs "\qH", "q15"
\r
440 vext.8 q2, \qH, q10, #15 @ S3sl = S3prev[15] | (S3 << 8) < G >
\r
441 vmov \qH, q10 @ S3prev = S3 < H >
\r
444 .ifeqs "\qB", "q14"
\r
445 vshr.u64 d16, d17, #(64-8) @ S1[0] = S1[15] | ...
\r
448 vshr.u64 d18, d19, #(64-8) @ S2[0] = S2[15] | ...
\r
450 .ifeqs "\qH", "q15"
\r
451 vshr.u64 d20, d21, #(64-8) @ S3[0] = S3[15] | ...
\r
453 .ifeqs "\qB", "q14"
\r
454 vext.8 q3, \qB, q8, #1 @ S1sr = (S1prev >> 8) | S1[0] < C >
\r
457 vext.8 q4, q12, q9, #1 @ S2sr = (S2prev >> 8) | S2[0] < F >
\r
459 .ifeqs "\qH", "q15"
\r
460 vext.8 q5, \qH, q10, #1 @ S3sr = (S3prev >> 8) | S3[0] < I >
\r
462 vmov q2, q1 @ S3sl = S2sl < G >
\r
464 vmov q5, q4 @ S3sr = S2sr < I >
\r
467 .ifnes "\qB", "q14"
\r
468 vmov q0, q1 @ S1sl = S2sl < A >
\r
470 vmov q3, q4 @ S1sr = S2sr < C >
\r
473 ___neon_scale3x_8_8_slice \counter, \aldst1, \aldst2, \aldst3, \reg1, \dB0, \dB1, \dH0, \dH1, 0, 1
\r
477 .macro _neon_scale3x_8_8_line_first src1, src2, src3, counter, dst1, dst2, dst3, reg1, alsrc1, alsrc2, alsrc3, aldst1, aldst2, aldst3
\r
478 __neon_scale3x_8_8_line \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, q12, q15, d24, d25, d30, d31, \alsrc1, \alsrc2, \alsrc3, \aldst1, \aldst2, \aldst3
\r
481 .macro _neon_scale3x_8_8_line_middle src1, src2, src3, counter, dst1, dst2, dst3, reg1, alsrc1, alsrc2, alsrc3, aldst1, aldst2, aldst3
\r
482 __neon_scale3x_8_8_line \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, q14, q15, d28, d29, d30, d31, \alsrc1, \alsrc2, \alsrc3, \aldst1, \aldst2, \aldst3
\r
485 .macro _neon_scale3x_8_8_line_last src1, src2, src3, counter, dst1, dst2, dst3, reg1, alsrc1, alsrc2, alsrc3, aldst1, aldst2, aldst3
\r
486 __neon_scale3x_8_8_line \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, q14, q12, d28, d29, d24, d25, \alsrc1, \alsrc2, \alsrc3, \aldst1, \aldst2, \aldst3
\r
489 .macro neon_scale3x_8_8_line part, src1, src2, src3, counter, dst1, dst2, dst3, reg1, srcalign16, dstalign8
\r
493 _neon_scale3x_8_8_line_\part \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, \src1, \src2, \src3, \dst1, \dst2, \dst3
\r
495 _neon_scale3x_8_8_line_\part \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, \src1, \src2, \src3, \dst1:64, \dst2:64, \dst3:64
\r
501 _neon_scale3x_8_8_line_\part \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, \src1:128, \src2:128, \src3:128, \dst1, \dst2, \dst3
\r
503 _neon_scale3x_8_8_line_\part \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, \src1:128, \src2:128, \src3:128, \dst1:64, \dst2:64, \dst3:64
\r
510 .macro ___neon_scale3x_16_16_slice counter, dst1, dst2, dst3, reg1, dB0, dB1, dH0, dH1, first7, last8
\r
528 vceq.i16 d15, \dB0, \dH0 @ tmp0[0] = < B == H >
\r
530 vceq.i16 d23, d2, d8 @ tmp1[0] = < D == F >
\r
536 vceq.i16 q0, q12, q0 @ tmp2 = < E == A >
\r
538 vceq.i16 q3, q12, q3 @ tmp3 = < E == C >
\r
541 lsl \reg1, #1 @ reg1 = 2 * (counter & 7)
\r
544 vorr d27, d15, d23 @ C0[0] = < B == H || D == F >
\r
546 vceq.i16 d22, d2, \dB0 @ E3[0] = < D == B >
\r
548 vceq.i16 d26, \dB0, d8 @ E5[0] = < B == F >
\r
550 vceq.i16 q2, q12, q2 @ tmp4 = < E == G >
\r
552 vceq.i16 q5, q12, q5 @ tmp5 = < E == I >
\r
555 add \reg1, \reg1, \reg1, lsl #1 @ reg1 = 2 * 3 * (counter & 7)
\r
558 vorn d15, d6, d22 @ tmp0[0] = < (E == C) || !(D == B) >
\r
560 vorn d23, d0, d26 @ tmp1[0] = < (E == A) || !(B == F) >
\r
562 vorn d12, d27, d22 @ E0[0] = < C0 || !(D == B) >
\r
565 sub \reg1, \reg1, #(3*2*4) @ reg1 -= 3*2*4
\r
568 vand d13, d15, d23 @ E1[0] = < ((E == C) || !(D == B)) && ((E == A) || !(B == F)) >
\r
570 vorn d14, d27, d26 @ E2[0] = < C0 || !(B == F) >
\r
572 vorr d13, d27, d13 @ E1[0] = < C0 || (((E == C) || !(D == B)) && ((E == A) || !(B == F))) >
\r
574 vbsl d12, d24, d2 @ E0[0] = < (C0 || !(D == B)) ? E : D >
\r
576 vbsl d14, d24, d8 @ E2[0] = < (C0 || !(B == F)) ? E : F >
\r
578 vbsl d13, d24, \dB0 @ E1[0] = < (C0 || (((E == C) || !(D == B)) && ((E == A) || !(B == F)))) ? E : B >
\r
580 vceq.i16 d15, d2, \dH0 @ tmp0[0] = < D == H >
\r
582 vceq.i16 d23, \dH0, d8 @ tmp1[0] = < H == F >
\r
584 vorn d22, d4, d22 @ E3[0] = < (E == G) || !(D == B) >
\r
585 vst3.16 {d12-d14}, [\dst1]! @ [dst] = E0,E1,E2; dst1 += 3*2*4
\r
588 addls \dst1, \dst1, \reg1 @ dst1 += reg1
\r
591 vorn d26, d10, d26 @ E5[0] = < (E == I) || !(B == F) >
\r
596 vorn d12, d0, d15 @ tmp6[0] = < (E == A) || !(D == H) >
\r
598 vorn d13, d6, d23 @ tmp7[0] = < (E == C) || !(H == F) >
\r
600 vand d22, d22, d12 @ E3[0] = < ((E == G) || !(D == B)) && ((E == A) || !(D == H)) >
\r
602 vand d26, d26, d13 @ E5[0] = < ((E == I) || !(B == F)) && ((E == C) || !(H == F)) >
\r
608 vorr d22, d27, d22 @ E3[0] = < C0 || (((E == G) || !(D == B)) && ((E == A) || !(D == H))) >
\r
610 vorr d26, d27, d26 @ E5[0] = < C0 || (((E == I) || !(B == F)) && ((E == C) || !(H == F))) >
\r
612 vbsl d22, d24, d2 @ E3[0] = < (C0 || (((E == G) || !(D == B)) && ((E == A) || !(D == H)))) ? E : D >
\r
614 vbsl d26, d24, d8 @ E5[0] = < (C0 || (((E == I) || !(B == F)) && ((E == C) || !(H == F)))) ? E : F >
\r
616 vorn d13, d10, d15 @ E7[0] = < (E == I) || !(D == H) >
\r
618 vorn d12, d27, d15 @ E6[0] = < C0 || !(D == H) >
\r
619 vst3.16 {d22,d24,d26}, [\dst2]! @ [dst + dststride] = E3,E4,E5; dst2 += 3*2*4
\r
622 addls \dst2, \dst2, \reg1 @ dst2 += reg1
\r
625 vorn d15, d4, d23 @ tmp0[0] = < (E == G) || !(H == F) >
\r
627 vorn d14, d27, d23 @ E8[0] = < C0 || !(H == F) >
\r
629 vand d13, d13, d15 @ E7[0] = < ((E == I) || !(D == H)) && ((E == G) || !(H == F)) >
\r
631 vbsl d12, d24, d2 @ E6[0] = < (C0 || !(D == H)) ? E : D >
\r
633 vorr d13, d27, d13 @ E7[0] = < C0 || (((E == I) || !(D == H)) && ((E == G) || !(H == F))) >
\r
635 vbsl d14, d24, d8 @ E8[0] = < (C0 || !(H == F)) ? E : F >
\r
637 vbsl d13, d24, \dH0 @ E7[0] = < (C0 || (((E == I) || !(D == H)) && ((E == G) || !(H == F)))) ? E : H >
\r
647 vceq.i16 d15, \dB1, \dH1 @ tmp0[1] = < B == H >
\r
649 vceq.i16 d22, d3, d9 @ tmp1[1] = < D == F >
\r
651 vceq.i16 d23, d3, \dB1 @ E3[1] = < D == B >
\r
652 vst3.16 {d12-d14}, [\dst3]! @ [dst + 2 * dststride] = E6,E7,E8; dst3 += 3*2*4
\r
655 addls \dst3, \dst3, \reg1 @ dst3 += reg1
\r
663 vorr d26, d15, d22 @ C0[1] = < B == H || D == F >
\r
665 vceq.i16 d27, \dB1, d9 @ E5[1] = < B == F >
\r
667 vorn d15, d7, d23 @ tmp0[1] = < (E == C) || !(D == B) >
\r
669 vorn d22, d1, d27 @ tmp1[1] = < (E == A) || !(B == F) >
\r
671 vorn d12, d26, d23 @ E0[1] = < C0 || !(D == B) >
\r
673 vand d13, d15, d22 @ E1[1] = < ((E == C) || !(D == B)) && ((E == A) || !(B == F)) >
\r
675 vorn d14, d26, d27 @ E2[1] = < C0 || !(B == F) >
\r
677 vorr d13, d26, d13 @ E1[1] = < C0 || (((E == C) || !(D == B)) && ((E == A) || !(B == F))) >
\r
679 vbsl d12, d25, d3 @ E0[1] = < (C0 || !(D == B)) ? E : D >
\r
681 vbsl d14, d25, d9 @ E2[1] = < (C0 || !(B == F)) ? E : F >
\r
683 vbsl d13, d25, \dB1 @ E1[1] = < (C0 || (((E == C) || !(D == B)) && ((E == A) || !(B == F)))) ? E : B >
\r
685 vceq.i16 d15, d3, \dH1 @ tmp0[1] = < D == H >
\r
687 vceq.i16 d22, \dH1, d9 @ tmp1[1] = < H == F >
\r
689 vorn d23, d5, d23 @ E3[1] = < (E == G) || !(D == B) >
\r
691 vst3.16 {d12-d14}, [\dst1]! @ [dst] = E0,E1,E2; dst1 += 3*2*4
\r
693 vst3.16 {d12-d14}, [\dst1], \reg1 @ [dst] = E0,E1,E2; dst1 += reg1
\r
696 vorn d27, d11, d27 @ E5[1] = < (E == I) || !(B == F) >
\r
701 vorn d12, d1, d15 @ tmp6[1] = < (E == A) || !(D == H) >
\r
703 vorn d13, d7, d22 @ tmp7[1] = < (E == C) || !(H == F) >
\r
705 vand d23, d23, d12 @ E3[1] = < ((E == G) || !(D == B)) && ((E == A) || !(D == H)) >
\r
707 vand d27, d27, d13 @ E5[1] = < ((E == I) || !(B == F)) && ((E == C) || !(H == F)) >
\r
713 vorr d23, d26, d23 @ E3[1] = < C0 || (((E == G) || !(D == B)) && ((E == A) || !(D == H))) >
\r
715 vorr d27, d26, d27 @ E5[1] = < C0 || (((E == I) || !(B == F)) && ((E == C) || !(H == F))) >
\r
717 vbsl d23, d25, d3 @ E3[1] = < (C0 || (((E == G) || !(D == B)) && ((E == A) || !(D == H)))) ? E : D >
\r
719 vbsl d27, d25, d9 @ E5[1] = < (C0 || (((E == I) || !(B == F)) && ((E == C) || !(H == F)))) ? E : F >
\r
721 vorn d13, d11, d15 @ E7[1] = < (E == I) || !(D == H) >
\r
723 vorn d12, d26, d15 @ E6[1] = < C0 || !(D == H) >
\r
725 vst3.16 {d23,d25,d27}, [\dst2]! @ [dst + dststride] = E3,E4,E5; dst2 += 3*2*4
\r
727 vst3.16 {d23,d25,d27}, [\dst2], \reg1 @ [dst + dststride] = E3,E4,E5; dst2 += reg1
\r
730 vorn d15, d5, d22 @ tmp0[1] = < (E == G) || !(H == F) >
\r
732 vorn d14, d26, d22 @ E8[1] = < C0 || !(H == F) >
\r
734 vand d13, d13, d15 @ E7[1] = < ((E == I) || !(D == H)) && ((E == G) || !(H == F)) >
\r
736 vbsl d12, d25, d3 @ E6[1] = < (C0 || !(D == H)) ? E : D >
\r
738 vorr d13, d26, d13 @ E7[1] = < C0 || (((E == I) || !(D == H)) && ((E == G) || !(H == F))) >
\r
740 vbsl d14, d25, d9 @ E8[1] = < (C0 || !(H == F)) ? E : F >
\r
742 vbsl d13, d25, \dH1 @ E7[1] = < (C0 || (((E == I) || !(D == H)) && ((E == G) || !(H == F)))) ? E : H >
\r
747 sub \counter, \counter, #8 @ counter -= 8
\r
751 vst3.16 {d12-d14}, [\dst3]! @ [dst + 2 * dststride] = E6,E7,E8; dst3 += 3*2*4
\r
753 vst3.16 {d12-d14}, [\dst3], \reg1 @ [dst + 2 * dststride] = E6,E7,E8; dst3 += reg1
\r
760 .macro __neon_scale3x_16_16_line src1, src2, src3, counter, dst1, dst2, dst3, reg1, qB, qH, dB0, dB1, dH0, dH1, alsrc1, alsrc2, alsrc3, aldst1, aldst2, aldst3
\r
762 .ifeqs "\qB", "q14"
\r
763 vld1.16 {d29[3]}, [\src1] @ S1prev[7] = src[-srcstride]
\r
765 vld1.16 {d25[3]}, [\src2] @ S2prev[7] = src[0]
\r
766 .ifeqs "\qH", "q15"
\r
767 vld1.16 {d31[3]}, [\src3] @ S3prev[7] = src[srcstride]
\r
769 andS \reg1, \counter, #7 @ reg1 = counter & 7
\r
771 .ifnes "\qB", "q14"
\r
772 add \src1, \src1, \counter, lsl #1 @ src1 += 2 * counter
\r
774 .ifnes "\qH", "q15"
\r
775 add \src3, \src3, \counter, lsl #1 @ src3 += 2 * counter
\r
779 @ first 1-7 pixels - align counter to 16 bytes
\r
781 sub \reg1, \reg1, #1 @ reg1 = (counter & 7) - 1
\r
783 .ifeqs "\qB", "q14"
\r
784 vld1.16 {q8}, [\src1] @ S1 = [src - srcstride]
\r
785 add \src1, \src1, \reg1, lsl #1 @ src1 += 2 * ((counter & 7) - 1)
\r
788 vld1.16 {q9}, [\src2] @ S2 = [src ]
\r
789 add \src2, \src2, \reg1, lsl #1 @ src2 += 2 * ((counter & 7) - 1)
\r
791 .ifeqs "\qH", "q15"
\r
792 vld1.16 {q10}, [\src3] @ S3 = [src + srcstride]
\r
793 add \src3, \src3, \reg1, lsl #1 @ src3 += 2 * ((counter & 7) - 1)
\r
795 .ifeqs "\qB", "q14"
\r
796 vext.8 q0, \qB, q8, #14 @ S1sl = S1prev[7] | (S1 << 16) < S >
\r
798 vmov \qB, q8 @ S1prev = S1 < T >
\r
800 vext.8 q1, q12, q9, #14 @ S2sl = S2prev[7] | (S2 << 16) < V >
\r
802 vmov q12, q9 @ S2prev = S2 < C >
\r
803 .ifeqs "\qH", "q15"
\r
804 vext.8 q2, \qH, q10, #14 @ S3sl = S3prev[7] | (S3 << 16) < X >
\r
806 vmov \qH, q10 @ S3prev = S3 < Y >
\r
808 .ifeqs "\qB", "q14"
\r
809 vext.8 q3, \qB, q8, #2 @ S1sr = (S1prev >> 16) | ... < U >
\r
812 vext.8 q4, q12, q9, #2 @ S2sr = (S2prev >> 16) | ... < W >
\r
814 .ifeqs "\qH", "q15"
\r
815 vext.8 q5, \qH, q10, #2 @ S3sr = (S3prev >> 16) | ... < Z >
\r
817 vmov q2, q1 @ S3sl = S2sl < X >
\r
819 vmov q5, q4 @ S3sr = S2sr < Z >
\r
822 .ifnes "\qB", "q14"
\r
823 vmov q0, q1 @ S1sl = S2sl < S >
\r
825 vmov q3, q4 @ S1sr = S2sr < U >
\r
827 vld1.16 {d29[3]}, [\src1]! @ S1prev[7] = src[counter & 7 - 1 - srcstride]; src1 += 2
\r
830 add \reg1, \reg1, #1 @ reg1 = counter & 7
\r
832 vld1.16 {d25[3]}, [\src2]! @ S2prev[7] = src[counter & 7 - 1]; src2 += 2
\r
834 bic \counter, \counter, #7
\r
836 .ifeqs "\qH", "q15"
\r
837 vld1.16 {d31[3]}, [\src3]! @ S3prev[7] = src[counter & 7 - 1 + srcstride]; src3 += 2
\r
840 ___neon_scale3x_16_16_slice \counter, \dst1, \dst2, \dst3, \reg1, \dB0, \dB1, \dH0, \dH1, 1, 0
\r
843 @ counter is aligned to 16 bytes
\r
846 .ifeqs "\qB", "q14"
\r
847 vld1.16 {q8}, [\alsrc1]! @ S1 = [src - srcstride]; src1 += 2*8
\r
849 vld1.16 {q9}, [\alsrc2]! @ S2 = [src ]; src2 += 2*8
\r
850 .ifeqs "\qH", "q15"
\r
851 vld1.16 {q10}, [\alsrc3]! @ S3 = [src + srcstride]; src3 += 2*8
\r
854 @ inner loop (8 pixels per iteration)
\r
857 .ifeqs "\qB", "q14"
\r
858 vext.8 q0, \qB, q8, #14 @ S1sl = S1prev[7] | (S1 << 16) < A >
\r
859 vmov \qB, q8 @ S1prev = S1 < B >
\r
862 vext.8 q1, q12, q9, #14 @ S2sl = S2prev[7] | (S2 << 16) < D >
\r
863 vmov q12, q9 @ S2prev = S2 < E >
\r
865 .ifeqs "\qH", "q15"
\r
866 vext.8 q2, \qH, q10, #14 @ S3sl = S3prev[7] | (S3 << 16) < G >
\r
867 vmov \qH, q10 @ S3prev = S3 < H >
\r
870 .ifeqs "\qB", "q14"
\r
871 vld1.16 {q8}, [\alsrc1]! @ S1 = [src - srcstride]; src1 += 2*8
\r
872 vext.8 q3, \qB, q8, #2 @ S1sr = (S1prev >> 16) | S1[0] < C >
\r
875 vld1.16 {q9}, [\alsrc2]! @ S2 = [src ]; src2 += 2*8
\r
876 vext.8 q4, q12, q9, #2 @ S2sr = (S2prev >> 16) | S2[0] < F >
\r
878 .ifeqs "\qH", "q15"
\r
879 vld1.16 {q10}, [\alsrc3]! @ S3 = [src + srcstride]; src3 += 2*8
\r
880 vext.8 q5, \qH, q10, #2 @ S3sr = (S3prev >> 16) | S3[0] < I >
\r
882 vmov q2, q1 @ S3sl = S2sl < G >
\r
884 vmov q5, q4 @ S3sr = S2sr < I >
\r
887 .ifnes "\qB", "q14"
\r
888 vmov q0, q1 @ S1sl = S2sl < A >
\r
890 vmov q3, q4 @ S1sr = S2sr < C >
\r
893 ___neon_scale3x_16_16_slice \counter, \aldst1, \aldst2, \aldst3, \reg1, \dB0, \dB1, \dH0, \dH1, 0, 0
\r
899 .ifeqs "\qB", "q14"
\r
900 vext.8 q0, \qB, q8, #14 @ S1sl = S1prev[7] | (S1 << 16) < A >
\r
901 vmov \qB, q8 @ S1prev = S1 < B >
\r
904 vext.8 q1, q12, q9, #14 @ S2sl = S2prev[7] | (S2 << 16) < D >
\r
905 vmov q12, q9 @ S2prev = S2 < E >
\r
907 .ifeqs "\qH", "q15"
\r
908 vext.8 q2, \qH, q10, #14 @ S3sl = S3prev[7] | (S3 << 16) < G >
\r
909 vmov \qH, q10 @ S3prev = S3 < H >
\r
912 .ifeqs "\qB", "q14"
\r
913 vshr.u64 d16, d17, #(64-16) @ S1[0] = S1[7] | ...
\r
916 vshr.u64 d18, d19, #(64-16) @ S2[0] = S2[7] | ...
\r
918 .ifeqs "\qH", "q15"
\r
919 vshr.u64 d20, d21, #(64-16) @ S3[0] = S3[7] | ...
\r
921 .ifeqs "\qB", "q14"
\r
922 vext.8 q3, \qB, q8, #2 @ S1sr = (S1prev >> 16) | S1[0] < C >
\r
925 vext.8 q4, q12, q9, #2 @ S2sr = (S2prev >> 16) | S2[0] < F >
\r
927 .ifeqs "\qH", "q15"
\r
928 vext.8 q5, \qH, q10, #2 @ S3sr = (S3prev >> 16) | S3[0] < I >
\r
930 vmov q2, q1 @ S3sl = S2sl < G >
\r
932 vmov q5, q4 @ S3sr = S2sr < I >
\r
935 .ifnes "\qB", "q14"
\r
936 vmov q0, q1 @ S1sl = S2sl < A >
\r
938 vmov q3, q4 @ S1sr = S2sr < C >
\r
941 ___neon_scale3x_16_16_slice \counter, \aldst1, \aldst2, \aldst3, \reg1, \dB0, \dB1, \dH0, \dH1, 0, 1
\r
945 .macro _neon_scale3x_16_16_line_first src1, src2, src3, counter, dst1, dst2, dst3, reg1, alsrc1, alsrc2, alsrc3, aldst1, aldst2, aldst3
\r
946 __neon_scale3x_16_16_line \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, q12, q15, d24, d25, d30, d31, \alsrc1, \alsrc2, \alsrc3, \aldst1, \aldst2, \aldst3
\r
949 .macro _neon_scale3x_16_16_line_middle src1, src2, src3, counter, dst1, dst2, dst3, reg1, alsrc1, alsrc2, alsrc3, aldst1, aldst2, aldst3
\r
950 __neon_scale3x_16_16_line \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, q14, q15, d28, d29, d30, d31, \alsrc1, \alsrc2, \alsrc3, \aldst1, \aldst2, \aldst3
\r
953 .macro _neon_scale3x_16_16_line_last src1, src2, src3, counter, dst1, dst2, dst3, reg1, alsrc1, alsrc2, alsrc3, aldst1, aldst2, aldst3
\r
954 __neon_scale3x_16_16_line \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, q14, q12, d28, d29, d24, d25, \alsrc1, \alsrc2, \alsrc3, \aldst1, \aldst2, \aldst3
\r
957 .macro neon_scale3x_16_16_line part, src1, src2, src3, counter, dst1, dst2, dst3, reg1, srcalign16, dstalign8
\r
961 _neon_scale3x_16_16_line_\part \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, \src1, \src2, \src3, \dst1, \dst2, \dst3
\r
963 _neon_scale3x_16_16_line_\part \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, \src1, \src2, \src3, \dst1:64, \dst2:64, \dst3:64
\r
969 _neon_scale3x_16_16_line_\part \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, \src1:128, \src2:128, \src3:128, \dst1, \dst2, \dst3
\r
971 _neon_scale3x_16_16_line_\part \src1, \src2, \src3, \counter, \dst1, \dst2, \dst3, \reg1, \src1:128, \src2:128, \src3:128, \dst1:64, \dst2:64, \dst3:64
\r