|
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516517518519520521522523524525526527528529530531532533534535536537538539540541542543544545546547548549550551552553554555556557558559560561562563564565566567568569570571572573574575576577578579580581582583584585586587588589590591592593594595596597598599600601602603604605606607608609610611612613614615616617618619620621622623624625626627628629630631632633634635636637638639640641642643644645646647648649650651652653654655656657658659660661662663664665666667668669670671672673674675676677678679680681682683684685686687688689690691692693694695696697698699700701702703704705706707708709710711712713 |
- /*******************************************************************************
- Copyright (c) 2017, The OpenBLAS Project
- All rights reserved.
- Redistribution and use in source and binary forms, with or without
- modification, are permitted provided that the following conditions are
- met:
- 1. Redistributions of source code must retain the above copyright
- notice, this list of conditions and the following disclaimer.
- 2. Redistributions in binary form must reproduce the above copyright
- notice, this list of conditions and the following disclaimer in
- the documentation and/or other materials provided with the
- distribution.
- 3. Neither the name of the OpenBLAS project nor the names of
- its contributors may be used to endorse or promote products
- derived from this software without specific prior written permission.
- THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"
- AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
- IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- ARE DISCLAIMED. IN NO EVENT SHALL THE OPENBLAS PROJECT OR CONTRIBUTORS BE
- LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
- DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR
- SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER
- CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY,
- OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE
- USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
- *******************************************************************************/
-
- #include "common.h"
- #include "macros_msa.h"
-
- /* This will shuffle the elements in 'in' vector as (mask needed :: 01 00 11 10)
- 0 1 2 3 => 2 3 0 1 */
- #define SHF_78 78
-
- int CNAME(BLASLONG n, BLASLONG dummy0, BLASLONG dummy1, FLOAT da_r, FLOAT da_i,
- FLOAT *x, BLASLONG inc_x, FLOAT *y, BLASLONG inc_y, FLOAT *dummy,
- BLASLONG dummy2)
- {
- BLASLONG i, inc_x2;
- FLOAT *px;
- FLOAT tp0, tp1, f0, f1;
- v2f64 x0, x1, x2, x3, x4, x5, x6, x7, x8, x9, x10, x11, x12, x13, x14, x15;
- v2f64 d0, d1, d2, d3, d4, d5, d6, d7, d8, d9, d10, d11, d12, d13, d14, d15;
- v2f64 da_i_vec, da_i_vec_neg, da_r_vec;
-
- px = x;
-
- if (1 == inc_x)
- {
- if ((0.0 == da_r) && (0.0 == da_i))
- {
- v2f64 zero_v = {0.0, 0.0};
-
- for (i = (n >> 4); i--;)
- {
- ST_DP8_INC(zero_v, zero_v, zero_v, zero_v, zero_v, zero_v,
- zero_v, zero_v, x, 2);
- ST_DP8_INC(zero_v, zero_v, zero_v, zero_v, zero_v, zero_v,
- zero_v, zero_v, x, 2);
- }
-
- if (n & 15)
- {
- if (n & 8)
- {
- ST_DP8_INC(zero_v, zero_v, zero_v, zero_v, zero_v, zero_v,
- zero_v, zero_v, x, 2);
- }
-
- if (n & 4)
- {
- ST_DP4_INC(zero_v, zero_v, zero_v, zero_v, x, 2);
- }
-
- if (n & 2)
- {
- ST_DP2_INC(zero_v, zero_v, x, 2);
- }
-
- if (n & 1)
- {
- ST_DP(zero_v, x);
- }
- }
- }
- else if (0.0 == da_r)
- {
- da_i_vec = COPY_DOUBLE_TO_VECTOR(da_i);
- da_i_vec_neg = -da_i_vec;
- da_i_vec = (v2f64) __msa_ilvev_d((v2i64) da_i_vec_neg, (v2i64) da_i_vec);
-
- if (n > 15)
- {
- FLOAT *x_pref;
- BLASLONG pref_offset;
-
- pref_offset = (BLASLONG)x & (L1_DATA_LINESIZE - 1);
- if (pref_offset > 0)
- {
- pref_offset = L1_DATA_LINESIZE - pref_offset;
- pref_offset = pref_offset / sizeof(FLOAT);
- }
- x_pref = x + pref_offset + 32 + 16;
-
- LD_DP8_INC(px, 2, x0, x1, x2, x3, x4, x5, x6, x7);
- for (i = (n >> 4)- 1; i--;)
- {
- PREF_OFFSET(x_pref, 0);
- PREF_OFFSET(x_pref, 32);
- PREF_OFFSET(x_pref, 64);
- PREF_OFFSET(x_pref, 96);
- PREF_OFFSET(x_pref, 128);
- PREF_OFFSET(x_pref, 160);
- PREF_OFFSET(x_pref, 192);
- PREF_OFFSET(x_pref, 224);
- x_pref += 32;
-
- x8 = LD_DP(px); px += 2;
- x0 *= da_i_vec;
- x9 = LD_DP(px); px += 2;
- x1 *= da_i_vec;
- x10 = LD_DP(px); px += 2;
- x2 *= da_i_vec;
- x11 = LD_DP(px); px += 2;
- x3 *= da_i_vec;
- x12 = LD_DP(px); px += 2;
- x4 *= da_i_vec;
- x13 = LD_DP(px); px += 2;
- x5 *= da_i_vec;
- x0 = (v2f64) __msa_shf_w((v4i32) x0, SHF_78);
- x14 = LD_DP(px); px += 2;
- x6 *= da_i_vec;
- x1 = (v2f64) __msa_shf_w((v4i32) x1, SHF_78);
- x15 = LD_DP(px); px += 2;
- x7 *= da_i_vec;
- x2 = (v2f64) __msa_shf_w((v4i32) x2, SHF_78);
- x8 *= da_i_vec;
- x3 = (v2f64) __msa_shf_w((v4i32) x3, SHF_78);
- ST_DP(x0, x); x += 2;
- x9 *= da_i_vec;
- x4 = (v2f64) __msa_shf_w((v4i32) x4, SHF_78);
- ST_DP(x1, x); x += 2;
- x10 *= da_i_vec;
- x5 = (v2f64) __msa_shf_w((v4i32) x5, SHF_78);
- ST_DP(x2, x); x += 2;
- x11 *= da_i_vec;
- x6 = (v2f64) __msa_shf_w((v4i32) x6, SHF_78);
- ST_DP(x3, x); x += 2;
- x12 *= da_i_vec;
- x7 = (v2f64) __msa_shf_w((v4i32) x7, SHF_78);
- ST_DP(x4, x); x += 2;
- x13 *= da_i_vec;
- x8 = (v2f64) __msa_shf_w((v4i32) x8, SHF_78);
- ST_DP(x5, x); x += 2;
- x14 *= da_i_vec;
- x9 = (v2f64) __msa_shf_w((v4i32) x9, SHF_78);
- ST_DP(x6, x); x += 2;
- x15 *= da_i_vec;
- x10 = (v2f64) __msa_shf_w((v4i32) x10, SHF_78);
- ST_DP(x7, x); x += 2;
- x11 = (v2f64) __msa_shf_w((v4i32) x11, SHF_78);
- ST_DP(x8, x); x += 2;
- x0 = LD_DP(px); px += 2;
- x12 = (v2f64) __msa_shf_w((v4i32) x12, SHF_78);
- ST_DP(x9, x); x += 2;
- x1 = LD_DP(px); px += 2;
- x13 = (v2f64) __msa_shf_w((v4i32) x13, SHF_78);
- ST_DP(x10, x); x += 2;
- x2 = LD_DP(px); px += 2;
- x14 = (v2f64) __msa_shf_w((v4i32) x14, SHF_78);
- ST_DP(x11, x); x += 2;
- x3 = LD_DP(px); px += 2;
- x15 = (v2f64) __msa_shf_w((v4i32) x15, SHF_78);
- ST_DP(x12, x); x += 2;
- x4 = LD_DP(px); px += 2;
- ST_DP(x13, x); x += 2;
- x5 = LD_DP(px); px += 2;
- ST_DP(x14, x); x += 2;
- x6 = LD_DP(px); px += 2;
- ST_DP(x15, x); x += 2;
- x7 = LD_DP(px); px += 2;
- }
-
- LD_DP8_INC(px, 2, x8, x9, x10, x11, x12, x13, x14, x15);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- x0, x1, x2, x3);
- MUL4(x4, da_i_vec, x5, da_i_vec, x6, da_i_vec, x7, da_i_vec,
- x4, x5, x6, x7);
- MUL4(x8, da_i_vec, x9, da_i_vec, x10, da_i_vec, x11, da_i_vec,
- x8, x9, x10, x11);
- MUL4(x12, da_i_vec, x13, da_i_vec, x14, da_i_vec, x15, da_i_vec,
- x12, x13, x14, x15);
- SHF_W4_DP(x0, x1, x2, x3, x0, x1, x2, x3, SHF_78);
- SHF_W4_DP(x4, x5, x6, x7, x4, x5, x6, x7, SHF_78);
- SHF_W4_DP(x8, x9, x10, x11, x8, x9, x10, x11, SHF_78);
- SHF_W4_DP(x12, x13, x14, x15, x12, x13, x14, x15, SHF_78);
- ST_DP16_INC(x0, x1, x2, x3, x4, x5, x6, x7, x8, x9, x10, x11,
- x12, x13, x14, x15, x, 2);
- }
-
- if (n & 15)
- {
- if (n & 8)
- {
- LD_DP8_INC(px, 2, x0, x1, x2, x3, x4, x5, x6, x7);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- x0, x1, x2, x3);
- MUL4(x4, da_i_vec, x5, da_i_vec, x6, da_i_vec, x7, da_i_vec,
- x4, x5, x6, x7);
- SHF_W4_DP(x0, x1, x2, x3, x0, x1, x2, x3, SHF_78);
- SHF_W4_DP(x4, x5, x6, x7, x4, x5, x6, x7, SHF_78);
- ST_DP8_INC(x0, x1, x2, x3, x4, x5, x6, x7, x, 2);
- }
-
- if (n & 4)
- {
- LD_DP4_INC(px, 2, x0, x1, x2, x3);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- x0, x1, x2, x3);
- SHF_W4_DP(x0, x1, x2, x3, x0, x1, x2, x3, SHF_78);
- ST_DP4_INC(x0, x1, x2, x3, x, 2);
- }
-
- if (n & 2)
- {
- LD_DP2_INC(px, 2, x0, x1);
- MUL2(x0, da_i_vec, x1, da_i_vec, x0, x1);
- SHF_W2_DP(x0, x1, x0, x1, SHF_78);
- ST_DP2_INC(x0, x1, x, 2);
- }
-
- if (n & 1)
- {
- LD_GP2_INC(px, 1, f0, f1);
- MUL2(f0, da_i, f1, -da_i, f0, f1);
- ST_GP2_INC(f1, f0, x, 1);
- }
- }
- }
- else if (0.0 == da_i)
- {
- da_r_vec = COPY_DOUBLE_TO_VECTOR(da_r);
-
- if (n > 15)
- {
- FLOAT *x_pref;
- BLASLONG pref_offset;
-
- pref_offset = (BLASLONG)x & (L1_DATA_LINESIZE - 1);
- if (pref_offset > 0)
- {
- pref_offset = L1_DATA_LINESIZE - pref_offset;
- pref_offset = pref_offset / sizeof(FLOAT);
- }
- x_pref = x + pref_offset + 32 + 16;
-
- LD_DP8_INC(px, 2, x0, x1, x2, x3, x4, x5, x6, x7);
- for (i = (n >> 4)- 1; i--;)
- {
- PREF_OFFSET(x_pref, 0);
- PREF_OFFSET(x_pref, 32);
- PREF_OFFSET(x_pref, 64);
- PREF_OFFSET(x_pref, 96);
- PREF_OFFSET(x_pref, 128);
- PREF_OFFSET(x_pref, 160);
- PREF_OFFSET(x_pref, 192);
- PREF_OFFSET(x_pref, 224);
- x_pref += 32;
-
- x8 = LD_DP(px); px += 2;
- x0 *= da_r_vec;
- x9 = LD_DP(px); px += 2;
- x1 *= da_r_vec;
- x10 = LD_DP(px); px += 2;
- x2 *= da_r_vec;
- x11 = LD_DP(px); px += 2;
- x3 *= da_r_vec;
- x12 = LD_DP(px); px += 2;
- x4 *= da_r_vec;
- x13 = LD_DP(px); px += 2;
- x5 *= da_r_vec;
- ST_DP(x0, x); x += 2;
- x14 = LD_DP(px); px += 2;
- x6 *= da_r_vec;
- ST_DP(x1, x); x += 2;
- x15 = LD_DP(px); px += 2;
- x7 *= da_r_vec;
- ST_DP(x2, x); x += 2;
- x8 *= da_r_vec;
- ST_DP(x3, x); x += 2;
- x9 *= da_r_vec;
- ST_DP(x4, x); x += 2;
- x10 *= da_r_vec;
- ST_DP(x5, x); x += 2;
- x11 *= da_r_vec;
- ST_DP(x6, x); x += 2;
- x12 *= da_r_vec;
- ST_DP(x7, x); x += 2;
- x13 *= da_r_vec;
- ST_DP(x8, x); x += 2;
- x0 = LD_DP(px); px += 2;
- x14 *= da_r_vec;
- ST_DP(x9, x); x += 2;
- x1 = LD_DP(px); px += 2;
- x15 *= da_r_vec;
- ST_DP(x10, x); x += 2;
- x2 = LD_DP(px); px += 2;
- ST_DP(x11, x); x += 2;
- x3 = LD_DP(px); px += 2;
- ST_DP(x12, x); x += 2;
- x4 = LD_DP(px); px += 2;
- ST_DP(x13, x); x += 2;
- x5 = LD_DP(px); px += 2;
- ST_DP(x14, x); x += 2;
- x6 = LD_DP(px); px += 2;
- ST_DP(x15, x); x += 2;
- x7 = LD_DP(px); px += 2;
- }
-
- LD_DP8_INC(px, 2, x8, x9, x10, x11, x12, x13, x14, x15);
- MUL4(x0, da_r_vec, x1, da_r_vec, x2, da_r_vec, x3, da_r_vec,
- x0, x1, x2, x3);
- MUL4(x4, da_r_vec, x5, da_r_vec, x6, da_r_vec, x7, da_r_vec,
- x4, x5, x6, x7);
- MUL4(x8, da_r_vec, x9, da_r_vec, x10, da_r_vec, x11, da_r_vec,
- x8, x9, x10, x11);
- MUL4(x12, da_r_vec, x13, da_r_vec, x14, da_r_vec, x15, da_r_vec,
- x12, x13, x14, x15);
- ST_DP16_INC(x0, x1, x2, x3, x4, x5, x6, x7, x8, x9, x10, x11,
- x12, x13, x14, x15, x, 2);
- }
-
- if (n & 15)
- {
- if (n & 8)
- {
- LD_DP8_INC(px, 2, x0, x1, x2, x3, x4, x5, x6, x7);
- MUL4(x0, da_r_vec, x1, da_r_vec, x2, da_r_vec, x3, da_r_vec,
- x0, x1, x2, x3);
- MUL4(x4, da_r_vec, x5, da_r_vec, x6, da_r_vec, x7, da_r_vec,
- x4, x5, x6, x7);
- ST_DP8_INC(x0, x1, x2, x3, x4, x5, x6, x7, x, 2);
- }
-
- if (n & 4)
- {
- LD_DP4_INC(px, 2, x0, x1, x2, x3);
- MUL4(x0, da_r_vec, x1, da_r_vec, x2, da_r_vec, x3, da_r_vec,
- x0, x1, x2, x3);
- ST_DP4_INC(x0, x1, x2, x3, x, 2);
- }
-
- if (n & 2)
- {
- LD_DP2_INC(px, 2, x0, x1);
- MUL2(x0, da_r_vec, x1, da_r_vec, x0, x1);
- ST_DP2_INC(x0, x1, x, 2);
- }
-
- if (n & 1)
- {
- LD_GP2_INC(px, 1, f0, f1);
- MUL2(f0, da_r, f1, da_r, f0, f1);
- ST_GP2_INC(f0, f1, x, 1);
- }
- }
- }
- else
- {
- FLOAT *x_pref;
- BLASLONG pref_offset;
-
- pref_offset = (BLASLONG)x & (L1_DATA_LINESIZE - 1);
- if (pref_offset > 0)
- {
- pref_offset = L1_DATA_LINESIZE - pref_offset;
- pref_offset = pref_offset / sizeof(FLOAT);
- }
- x_pref = x + pref_offset + 32;
-
- da_i_vec = COPY_DOUBLE_TO_VECTOR(da_i);
- da_i_vec_neg = -da_i_vec;
- da_i_vec = (v2f64) __msa_ilvev_d((v2i64) da_i_vec_neg, (v2i64) da_i_vec);
-
- da_r_vec = COPY_DOUBLE_TO_VECTOR(da_r);
-
- for (i = (n >> 4); i--;)
- {
- PREF_OFFSET(x_pref, 0);
- PREF_OFFSET(x_pref, 32);
- PREF_OFFSET(x_pref, 64);
- PREF_OFFSET(x_pref, 96);
- PREF_OFFSET(x_pref, 128);
- PREF_OFFSET(x_pref, 160);
- PREF_OFFSET(x_pref, 192);
- PREF_OFFSET(x_pref, 224);
- x_pref += 32;
-
- LD_DP16_INC(px, 2, x0, x1, x2, x3, x4, x5, x6, x7, x8, x9, x10,
- x11, x12, x13, x14, x15);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- d0, d1, d2, d3);
- MUL4(x4, da_i_vec, x5, da_i_vec, x6, da_i_vec, x7, da_i_vec,
- d4, d5, d6, d7);
- MUL4(x8, da_i_vec, x9, da_i_vec, x10, da_i_vec, x11, da_i_vec,
- d8, d9, d10, d11);
- MUL4(x12, da_i_vec, x13, da_i_vec, x14, da_i_vec, x15, da_i_vec,
- d12, d13, d14, d15);
- SHF_W4_DP(d0, d1, d2, d3, d0, d1, d2, d3, SHF_78);
- SHF_W4_DP(d4, d5, d6, d7, d4, d5, d6, d7, SHF_78);
- SHF_W4_DP(d8, d9, d10, d11, d8, d9, d10, d11, SHF_78);
- SHF_W4_DP(d12, d13, d14, d15, d12, d13, d14, d15, SHF_78);
- FMADD4(x0, x1, x2, x3, da_r_vec, d0, d1, d2, d3);
- FMADD4(x4, x5, x6, x7, da_r_vec, d4, d5, d6, d7);
- FMADD4(x8, x9, x10, x11, da_r_vec, d8, d9, d10, d11);
- FMADD4(x12, x13, x14, x15, da_r_vec, d12, d13, d14, d15);
- ST_DP16_INC(d0, d1, d2, d3, d4, d5, d6, d7, d8, d9, d10, d11,
- d12, d13, d14, d15, x, 2);
- }
-
- if (n & 15)
- {
- if (n & 8)
- {
- LD_DP8_INC(px, 2, x0, x1, x2, x3, x4, x5, x6, x7);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- d0, d1, d2, d3);
- MUL4(x4, da_i_vec, x5, da_i_vec, x6, da_i_vec, x7, da_i_vec,
- d4, d5, d6, d7);
- SHF_W4_DP(d0, d1, d2, d3, d0, d1, d2, d3, SHF_78);
- SHF_W4_DP(d4, d5, d6, d7, d4, d5, d6, d7, SHF_78);
- FMADD4(x0, x1, x2, x3, da_r_vec, d0, d1, d2, d3);
- FMADD4(x4, x5, x6, x7, da_r_vec, d4, d5, d6, d7);
- ST_DP8_INC(d0, d1, d2, d3, d4, d5, d6, d7, x, 2);
- }
-
- if (n & 4)
- {
- LD_DP4_INC(px, 2, x0, x1, x2, x3);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- d0, d1, d2, d3);
- SHF_W4_DP(d0, d1, d2, d3, d0, d1, d2, d3, SHF_78);
- FMADD4(x0, x1, x2, x3, da_r_vec, d0, d1, d2, d3);
- ST_DP4_INC(d0, d1, d2, d3, x, 2);
- }
-
- if (n & 2)
- {
- LD_DP2_INC(px, 2, x0, x1);
- MUL2(x0, da_i_vec, x1, da_i_vec, d0, d1);
- SHF_W2_DP(d0, d1, d0, d1, SHF_78);
- FMADD2(x0, x1, da_r_vec, d0, d1);
- ST_DP2_INC(d0, d1, x, 2);
- }
-
- if (n & 1)
- {
- LD_GP2_INC(px, 1, f0, f1);
-
- tp0 = da_r * f0;
- tp0 -= da_i * f1;
- tp1 = da_r * f1;
- tp1 += da_i * f0;
-
- ST_GP2_INC(tp0, tp1, x, 1);
- }
- }
- }
- }
- else
- {
- inc_x2 = 2 * inc_x;
-
- if ((0.0 == da_r) && (0.0 == da_i))
- {
- v2f64 zero_v = {0.0, 0.0};
-
- for (i = (n >> 4); i--;)
- {
- ST_DP8_INC(zero_v, zero_v, zero_v, zero_v, zero_v, zero_v,
- zero_v, zero_v, x, inc_x2);
- ST_DP8_INC(zero_v, zero_v, zero_v, zero_v, zero_v, zero_v,
- zero_v, zero_v, x, inc_x2);
- }
-
- if (n & 15)
- {
- if (n & 8)
- {
- ST_DP8_INC(zero_v, zero_v, zero_v, zero_v, zero_v, zero_v,
- zero_v, zero_v, x, inc_x2);
- }
-
- if (n & 4)
- {
- ST_DP4_INC(zero_v, zero_v, zero_v, zero_v, x, inc_x2);
- }
-
- if (n & 2)
- {
- ST_DP2_INC(zero_v, zero_v, x, inc_x2);
- }
-
- if (n & 1)
- {
- ST_DP(zero_v, x);
- }
- }
- }
- else if (0.0 == da_r)
- {
- da_i_vec = COPY_DOUBLE_TO_VECTOR(da_i);
- da_i_vec_neg = -da_i_vec;
- da_i_vec = (v2f64) __msa_ilvev_d((v2i64) da_i_vec_neg, (v2i64) da_i_vec);
-
- for (i = (n >> 4); i--;)
- {
- LD_DP16_INC(px, inc_x2, x0, x1, x2, x3, x4, x5, x6, x7, x8, x9,
- x10, x11, x12, x13, x14, x15);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- x0, x1, x2, x3);
- MUL4(x4, da_i_vec, x5, da_i_vec, x6, da_i_vec, x7, da_i_vec,
- x4, x5, x6, x7);
- MUL4(x8, da_i_vec, x9, da_i_vec, x10, da_i_vec, x11, da_i_vec,
- x8, x9, x10, x11);
- MUL4(x12, da_i_vec, x13, da_i_vec, x14, da_i_vec, x15, da_i_vec,
- x12, x13, x14, x15);
- SHF_W4_DP(x0, x1, x2, x3, x0, x1, x2, x3, SHF_78);
- SHF_W4_DP(x4, x5, x6, x7, x4, x5, x6, x7, SHF_78);
- SHF_W4_DP(x8, x9, x10, x11, x8, x9, x10, x11, SHF_78);
- SHF_W4_DP(x12, x13, x14, x15, x12, x13, x14, x15, SHF_78);
- ST_DP16_INC(x0, x1, x2, x3, x4, x5, x6, x7, x8, x9, x10, x11,
- x12, x13, x14, x15, x, inc_x2);
- }
-
- if (n & 15)
- {
- if (n & 8)
- {
- LD_DP8_INC(px, inc_x2, x0, x1, x2, x3, x4, x5, x6, x7);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- x0, x1, x2, x3);
- MUL4(x4, da_i_vec, x5, da_i_vec, x6, da_i_vec, x7, da_i_vec,
- x4, x5, x6, x7);
- SHF_W4_DP(x0, x1, x2, x3, x0, x1, x2, x3, SHF_78);
- SHF_W4_DP(x4, x5, x6, x7, x4, x5, x6, x7, SHF_78);
- ST_DP8_INC(x0, x1, x2, x3, x4, x5, x6, x7, x, inc_x2);
- }
-
- if (n & 4)
- {
- LD_DP4_INC(px, inc_x2, x0, x1, x2, x3);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- x0, x1, x2, x3);
- SHF_W4_DP(x0, x1, x2, x3, x0, x1, x2, x3, SHF_78);
- ST_DP4_INC(x0, x1, x2, x3, x, inc_x2);
- }
-
- if (n & 2)
- {
- LD_DP2_INC(px, inc_x2, x0, x1);
- MUL2(x0, da_i_vec, x1, da_i_vec, x0, x1);
- SHF_W2_DP(x0, x1, x0, x1, SHF_78);
- ST_DP2_INC(x0, x1, x, inc_x2);
- }
-
- if (n & 1)
- {
- LD_GP2_INC(px, 1, f0, f1);
- MUL2(f0, da_i, f1, -da_i, f0, f1);
- ST_GP2_INC(f1, f0, x, 1);
- }
- }
- }
- else if (0.0 == da_i)
- {
- da_r_vec = COPY_DOUBLE_TO_VECTOR(da_r);
-
- for (i = (n >> 4); i--;)
- {
- LD_DP16_INC(px, inc_x2, x0, x1, x2, x3, x4, x5, x6, x7, x8, x9,
- x10, x11, x12, x13, x14, x15);
- MUL4(x0, da_r_vec, x1, da_r_vec, x2, da_r_vec, x3, da_r_vec,
- x0, x1, x2, x3);
- MUL4(x4, da_r_vec, x5, da_r_vec, x6, da_r_vec, x7, da_r_vec,
- x4, x5, x6, x7);
- MUL4(x8, da_r_vec, x9, da_r_vec, x10, da_r_vec, x11, da_r_vec,
- x8, x9, x10, x11);
- MUL4(x12, da_r_vec, x13, da_r_vec, x14, da_r_vec, x15, da_r_vec,
- x12, x13, x14, x15);
- ST_DP16_INC(x0, x1, x2, x3, x4, x5, x6, x7, x8, x9, x10, x11,
- x12, x13, x14, x15, x, inc_x2);
- }
-
- if (n & 15)
- {
- if (n & 8)
- {
- LD_DP8_INC(px, inc_x2, x0, x1, x2, x3, x4, x5, x6, x7);
- MUL4(x0, da_r_vec, x1, da_r_vec, x2, da_r_vec, x3, da_r_vec,
- x0, x1, x2, x3);
- MUL4(x4, da_r_vec, x5, da_r_vec, x6, da_r_vec, x7, da_r_vec,
- x4, x5, x6, x7);
- ST_DP8_INC(x0, x1, x2, x3, x4, x5, x6, x7, x, inc_x2);
- }
-
- if (n & 4)
- {
- LD_DP4_INC(px, inc_x2, x0, x1, x2, x3);
- MUL4(x0, da_r_vec, x1, da_r_vec, x2, da_r_vec, x3, da_r_vec,
- x0, x1, x2, x3);
- ST_DP4_INC(x0, x1, x2, x3, x, inc_x2);
- }
-
- if (n & 2)
- {
- LD_DP2_INC(px, inc_x2, x0, x1);
- MUL2(x0, da_r_vec, x1, da_r_vec, x0, x1);
- ST_DP2_INC(x0, x1, x, inc_x2);
- }
-
- if (n & 1)
- {
- LD_GP2_INC(px, 1, f0, f1);
- MUL2(f0, da_r, f1, da_r, f0, f1);
- ST_GP2_INC(f0, f1, x, 1);
- }
- }
- }
- else
- {
- da_i_vec = COPY_DOUBLE_TO_VECTOR(da_i);
- da_i_vec_neg = -da_i_vec;
- da_i_vec = (v2f64) __msa_ilvev_d((v2i64) da_i_vec_neg, (v2i64) da_i_vec);
-
- da_r_vec = COPY_DOUBLE_TO_VECTOR(da_r);
-
- for (i = (n >> 4); i--;)
- {
- LD_DP16_INC(px, inc_x2, x0, x1, x2, x3, x4, x5, x6, x7, x8, x9,
- x10, x11, x12, x13, x14, x15);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- d0, d1, d2, d3);
- MUL4(x4, da_i_vec, x5, da_i_vec, x6, da_i_vec, x7, da_i_vec,
- d4, d5, d6, d7);
- MUL4(x8, da_i_vec, x9, da_i_vec, x10, da_i_vec, x11, da_i_vec,
- d8, d9, d10, d11);
- MUL4(x12, da_i_vec, x13, da_i_vec, x14, da_i_vec, x15, da_i_vec,
- d12, d13, d14, d15);
- SHF_W4_DP(d0, d1, d2, d3, d0, d1, d2, d3, SHF_78);
- SHF_W4_DP(d4, d5, d6, d7, d4, d5, d6, d7, SHF_78);
- SHF_W4_DP(d8, d9, d10, d11, d8, d9, d10, d11, SHF_78);
- SHF_W4_DP(d12, d13, d14, d15, d12, d13, d14, d15, SHF_78);
- FMADD4(x0, x1, x2, x3, da_r_vec, d0, d1, d2, d3);
- FMADD4(x4, x5, x6, x7, da_r_vec, d4, d5, d6, d7);
- FMADD4(x8, x9, x10, x11, da_r_vec, d8, d9, d10, d11);
- FMADD4(x12, x13, x14, x15, da_r_vec, d12, d13, d14, d15);
- ST_DP16_INC(d0, d1, d2, d3, d4, d5, d6, d7, d8, d9, d10, d11,
- d12, d13, d14, d15, x, inc_x2);
- }
-
- if (n & 15)
- {
- if (n & 8)
- {
- LD_DP8_INC(px, inc_x2, x0, x1, x2, x3, x4, x5, x6, x7);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- d0, d1, d2, d3);
- MUL4(x4, da_i_vec, x5, da_i_vec, x6, da_i_vec, x7, da_i_vec,
- d4, d5, d6, d7);
- SHF_W4_DP(d0, d1, d2, d3, d0, d1, d2, d3, SHF_78);
- SHF_W4_DP(d4, d5, d6, d7, d4, d5, d6, d7, SHF_78);
- FMADD4(x0, x1, x2, x3, da_r_vec, d0, d1, d2, d3);
- FMADD4(x4, x5, x6, x7, da_r_vec, d4, d5, d6, d7);
- ST_DP8_INC(d0, d1, d2, d3, d4, d5, d6, d7, x, inc_x2);
- }
-
- if (n & 4)
- {
- LD_DP4_INC(px, inc_x2, x0, x1, x2, x3);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- d0, d1, d2, d3);
- SHF_W4_DP(d0, d1, d2, d3, d0, d1, d2, d3, SHF_78);
- FMADD4(x0, x1, x2, x3, da_r_vec, d0, d1, d2, d3);
- ST_DP4_INC(d0, d1, d2, d3, x, inc_x2);
- }
-
- if (n & 2)
- {
- LD_DP2_INC(px, inc_x2, x0, x1);
- MUL2(x0, da_i_vec, x1, da_i_vec, d0, d1);
- SHF_W2_DP(d0, d1, d0, d1, SHF_78);
- FMADD2(x0, x1, da_r_vec, d0, d1);
- ST_DP2_INC(d0, d1, x, inc_x2);
- }
-
- if (n & 1)
- {
- LD_GP2_INC(px, 1, f0, f1);
-
- tp0 = da_r * f0;
- tp0 -= da_i * f1;
- tp1 = da_r * f1;
- tp1 += da_i * f0;
-
- ST_GP2_INC(tp0, tp1, x, 1);
- }
- }
- }
- }
-
- return (0);
- }
|