aboutsummaryrefslogtreecommitdiff
path: root/source/row_neon.cc
diff options
context:
space:
mode:
authorFrank Barchard <fbarchard@google.com>2023-03-15 23:32:20 -0700
committerlibyuv LUCI CQ <libyuv-scoped@luci-project-accounts.iam.gserviceaccount.com>2023-03-16 06:57:20 +0000
commit3f219a3501e555ffef7aeaa90abbaf90a90d2258 (patch)
treed66d3b0dc4a757fd016ebed0c030d637624ac922 /source/row_neon.cc
parent76468711d5c8302431a900499ff73d34fdfc146b (diff)
downloadlibyuv-3f219a3501e555ffef7aeaa90abbaf90a90d2258.tar.gz
GCC warning fix for MT2T
- Fix redundent assignment compile warning in GCC - Apply clang-format - Bump version to 1863 Bug: libyuv:955 Change-Id: If2b6588cd5a7f068a1745fe7763e90caa7277101 Reviewed-on: https://chromium-review.googlesource.com/c/libyuv/libyuv/+/4344729 Commit-Queue: Frank Barchard <fbarchard@chromium.org> Reviewed-by: Mirko Bonadei <mbonadei@chromium.org>
Diffstat (limited to 'source/row_neon.cc')
-rw-r--r--source/row_neon.cc48
1 files changed, 24 insertions, 24 deletions
diff --git a/source/row_neon.cc b/source/row_neon.cc
index 59b3e05a..b3e800d9 100644
--- a/source/row_neon.cc
+++ b/source/row_neon.cc
@@ -722,37 +722,37 @@ void DetileToYUY2_NEON(const uint8_t* src_y,
void UnpackMT2T_NEON(const uint8_t* src, uint16_t* dst, size_t size) {
asm volatile(
- "1: \n"
- "vld1.8 q14, [%0]! \n" // Load lower bits.
- "vld1.8 q9, [%0]! \n" // Load upper bits row
+ "1: \n"
+ "vld1.8 q14, [%0]! \n" // Load lower bits.
+ "vld1.8 q9, [%0]! \n" // Load upper bits row
// by row.
- "vld1.8 q11, [%0]! \n"
- "vld1.8 q13, [%0]! \n"
- "vld1.8 q15, [%0]! \n"
- "vshl.u8 q8, q14, #6 \n" // Shift lower bit data
+ "vld1.8 q11, [%0]! \n"
+ "vld1.8 q13, [%0]! \n"
+ "vld1.8 q15, [%0]! \n"
+ "vshl.u8 q8, q14, #6 \n" // Shift lower bit data
// appropriately.
- "vshl.u8 q10, q14, #4 \n"
- "vshl.u8 q12, q14, #2 \n"
- "vzip.u8 q8, q9 \n" // Interleave upper and
+ "vshl.u8 q10, q14, #4 \n"
+ "vshl.u8 q12, q14, #2 \n"
+ "vzip.u8 q8, q9 \n" // Interleave upper and
// lower bits.
- "vzip.u8 q10, q11 \n"
- "vzip.u8 q12, q13 \n"
- "vzip.u8 q14, q15 \n"
- "vsri.u16 q8, q8, #10 \n" // Copy upper 6 bits
+ "vzip.u8 q10, q11 \n"
+ "vzip.u8 q12, q13 \n"
+ "vzip.u8 q14, q15 \n"
+ "vsri.u16 q8, q8, #10 \n" // Copy upper 6 bits
// into lower 6 bits for
// better accuracy in
// conversions.
- "vsri.u16 q9, q9, #10 \n"
- "vsri.u16 q10, q10, #10 \n"
- "vsri.u16 q11, q11, #10 \n"
- "vsri.u16 q12, q12, #10 \n"
- "vsri.u16 q13, q13, #10 \n"
- "vsri.u16 q14, q14, #10 \n"
- "vsri.u16 q15, q15, #10 \n"
- "vstmia %1!, {q8-q15} \n" // Store pixel block (64
+ "vsri.u16 q9, q9, #10 \n"
+ "vsri.u16 q10, q10, #10 \n"
+ "vsri.u16 q11, q11, #10 \n"
+ "vsri.u16 q12, q12, #10 \n"
+ "vsri.u16 q13, q13, #10 \n"
+ "vsri.u16 q14, q14, #10 \n"
+ "vsri.u16 q15, q15, #10 \n"
+ "vstmia %1!, {q8-q15} \n" // Store pixel block (64
// pixels).
- "subs %2, %2, #80 \n"
- "bgt 1b \n"
+ "subs %2, %2, #80 \n"
+ "bgt 1b \n"
: "+r"(src), // %0
"+r"(dst), // %1
"+r"(size) // %2