|
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516517518519520521522523524525526527528529530531532533534535536537538539540541542543544545546547548549550551552553554555556557558559560561562563564565566567568569570571572573574575576577578579580581582583584585586587588589590591592593594595596597598599600601602603604605606607608609610611612613614615616617618619620621622623624625626627628629630631632633634635636637638639640641642643644645646647648649650651652653654655656657658659660661662663664665666667668669670671672673674675676677678679680681682683684685686687688689690691692693694695696697698699700701702703704705706707708709710711712713714715716717718719720721722723724725726727728729730731732733734735736737738739740741742743744745746747748749750751752753754755756757758759760761762763764765766767768769770771772773774775776777778779780781782783784785786787788789790791792793794795796797798799800801802803804805806807808809810811812813814815816817818819820821822823824825826827828829830831832833834835836837838839840841842843844845846847848849850851852853854855856857858859860861862863864865866867868869870871872873874875876877878879880881882883884885886887888889890891892893894895896897898899900901902903904905906907908909910911912913914915916917918919920921922923924925926927928929930931932933934935936937938939940941942943944945946947948949950951952953954955956957958959960961962963964965966967968969970971972973974975976977978979980981982983984985986987988989990991992993994995996997998999100010011002100310041005100610071008 |
- /*******************************************************************************
- Copyright (c) 2017, The OpenBLAS Project
- All rights reserved.
- Redistribution and use in source and binary forms, with or without
- modification, are permitted provided that the following conditions are
- met:
- 1. Redistributions of source code must retain the above copyright
- notice, this list of conditions and the following disclaimer.
- 2. Redistributions in binary form must reproduce the above copyright
- notice, this list of conditions and the following disclaimer in
- the documentation and/or other materials provided with the
- distribution.
- 3. Neither the name of the OpenBLAS project nor the names of
- its contributors may be used to endorse or promote products
- derived from this software without specific prior written permission.
- THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"
- AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
- IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
- ARE DISCLAIMED. IN NO EVENT SHALL THE OPENBLAS PROJECT OR CONTRIBUTORS BE
- LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
- DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR
- SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER
- CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY,
- OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE
- USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
- *******************************************************************************/
-
- #include "common.h"
- #include "macros_msa.h"
-
- /* This will shuffle the elements in 'in' vector as (mask needed :: 10 11 00 01)
- 0 1 2 3 => 1 0 3 2 */
- #define SHF_177 177
-
- int CNAME(BLASLONG n, BLASLONG dummy0, BLASLONG dummy1, FLOAT da_r, FLOAT da_i,
- FLOAT *x, BLASLONG inc_x, FLOAT *y, BLASLONG inc_y, FLOAT *dummy,
- BLASLONG dummy2)
- {
- BLASLONG i, inc_x2;
- FLOAT *px;
- FLOAT tp0, tp1, tp2, tp3, f0, f1, f2, f3;
- v4f32 x0, x1, x2, x3, x4, x5, x6, x7, x8, x9, x10, x11, x12, x13, x14, x15;
- v4f32 d0, d1, d2, d3, d4, d5, d6, d7, d8, d9, d10, d11, d12, d13, d14, d15;
- v4f32 da_i_vec, da_i_vec_neg, da_r_vec;
-
- px = x;
-
- if (1 == inc_x)
- {
- if ((0.0 == da_r) && (0.0 == da_i))
- {
- v4f32 zero_v = {0.0, 0.0, 0.0, 0.0};
-
- for (i = (n >> 5); i--;)
- {
- ST_SP8_INC(zero_v, zero_v, zero_v, zero_v, zero_v, zero_v,
- zero_v, zero_v, x, 4);
- ST_SP8_INC(zero_v, zero_v, zero_v, zero_v, zero_v, zero_v,
- zero_v, zero_v, x, 4);
- }
-
- if (n & 31)
- {
- if (n & 16)
- {
- ST_SP8_INC(zero_v, zero_v, zero_v, zero_v, zero_v, zero_v,
- zero_v, zero_v, x, 4);
- }
-
- if (n & 8)
- {
- ST_SP4_INC(zero_v, zero_v, zero_v, zero_v, x, 4);
- }
-
- if (n & 4)
- {
- ST_SP2_INC(zero_v, zero_v, x, 4);
- }
-
- if (n & 2)
- {
- ST_SP(zero_v, x); x += 4;
- }
-
- if (n & 1)
- {
- *x = 0; x += 1;
- *x = 0;
- }
- }
- }
- else if (0.0 == da_r)
- {
- da_i_vec = COPY_FLOAT_TO_VECTOR(da_i);
- da_i_vec_neg = -da_i_vec;
- da_i_vec = (v4f32) __msa_ilvev_w((v4i32) da_i_vec_neg, (v4i32) da_i_vec);
-
- if (n > 31)
- {
- FLOAT *x_pref;
- BLASLONG pref_offset;
-
- pref_offset = (BLASLONG)x & (L1_DATA_LINESIZE - 1);
- if (pref_offset > 0)
- {
- pref_offset = L1_DATA_LINESIZE - pref_offset;
- pref_offset = pref_offset / sizeof(FLOAT);
- }
- x_pref = x + pref_offset + 64 + 32;
-
- LD_SP8_INC(px, 4, x0, x1, x2, x3, x4, x5, x6, x7);
- for (i = (n >> 5)- 1; i--;)
- {
- PREF_OFFSET(x_pref, 0);
- PREF_OFFSET(x_pref, 32);
- PREF_OFFSET(x_pref, 64);
- PREF_OFFSET(x_pref, 96);
- PREF_OFFSET(x_pref, 128);
- PREF_OFFSET(x_pref, 160);
- PREF_OFFSET(x_pref, 192);
- PREF_OFFSET(x_pref, 224);
- x_pref += 64;
-
- x8 = LD_SP(px); px += 4;
- x0 *= da_i_vec;
- x9 = LD_SP(px); px += 4;
- x1 *= da_i_vec;
- x10 = LD_SP(px); px += 4;
- x2 *= da_i_vec;
- x11 = LD_SP(px); px += 4;
- x3 *= da_i_vec;
- x12 = LD_SP(px); px += 4;
- x4 *= da_i_vec;
- x13 = LD_SP(px); px += 4;
- x5 *= da_i_vec;
- x0 = (v4f32) __msa_shf_w((v4i32) x0, SHF_177);
- x14 = LD_SP(px); px += 4;
- x6 *= da_i_vec;
- x1 = (v4f32) __msa_shf_w((v4i32) x1, SHF_177);
- x15 = LD_SP(px); px += 4;
- x7 *= da_i_vec;
- x2 = (v4f32) __msa_shf_w((v4i32) x2, SHF_177);
- x8 *= da_i_vec;
- x3 = (v4f32) __msa_shf_w((v4i32) x3, SHF_177);
- ST_SP(x0, x); x += 4;
- x9 *= da_i_vec;
- x4 = (v4f32) __msa_shf_w((v4i32) x4, SHF_177);
- ST_SP(x1, x); x += 4;
- x10 *= da_i_vec;
- x5 = (v4f32) __msa_shf_w((v4i32) x5, SHF_177);
- ST_SP(x2, x); x += 4;
- x11 *= da_i_vec;
- x6 = (v4f32) __msa_shf_w((v4i32) x6, SHF_177);
- ST_SP(x3, x); x += 4;
- x12 *= da_i_vec;
- x7 = (v4f32) __msa_shf_w((v4i32) x7, SHF_177);
- ST_SP(x4, x); x += 4;
- x13 *= da_i_vec;
- x8 = (v4f32) __msa_shf_w((v4i32) x8, SHF_177);
- ST_SP(x5, x); x += 4;
- x14 *= da_i_vec;
- x9 = (v4f32) __msa_shf_w((v4i32) x9, SHF_177);
- ST_SP(x6, x); x += 4;
- x15 *= da_i_vec;
- x10 = (v4f32) __msa_shf_w((v4i32) x10, SHF_177);
- ST_SP(x7, x); x += 4;
- x11 = (v4f32) __msa_shf_w((v4i32) x11, SHF_177);
- ST_SP(x8, x); x += 4;
- x0 = LD_SP(px); px += 4;
- x12 = (v4f32) __msa_shf_w((v4i32) x12, SHF_177);
- ST_SP(x9, x); x += 4;
- x1 = LD_SP(px); px += 4;
- x13 = (v4f32) __msa_shf_w((v4i32) x13, SHF_177);
- ST_SP(x10, x); x += 4;
- x2 = LD_SP(px); px += 4;
- x14 = (v4f32) __msa_shf_w((v4i32) x14, SHF_177);
- ST_SP(x11, x); x += 4;
- x3 = LD_SP(px); px += 4;
- x15 = (v4f32) __msa_shf_w((v4i32) x15, SHF_177);
- ST_SP(x12, x); x += 4;
- x4 = LD_SP(px); px += 4;
- ST_SP(x13, x); x += 4;
- x5 = LD_SP(px); px += 4;
- ST_SP(x14, x); x += 4;
- x6 = LD_SP(px); px += 4;
- ST_SP(x15, x); x += 4;
- x7 = LD_SP(px); px += 4;
- }
-
- LD_SP8_INC(px, 4, x8, x9, x10, x11, x12, x13, x14, x15);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- x0, x1, x2, x3);
- MUL4(x4, da_i_vec, x5, da_i_vec, x6, da_i_vec, x7, da_i_vec,
- x4, x5, x6, x7);
- MUL4(x8, da_i_vec, x9, da_i_vec, x10, da_i_vec, x11, da_i_vec,
- x8, x9, x10, x11);
- MUL4(x12, da_i_vec, x13, da_i_vec, x14, da_i_vec, x15, da_i_vec,
- x12, x13, x14, x15);
- SHF_W4_SP(x0, x1, x2, x3, x0, x1, x2, x3, SHF_177);
- SHF_W4_SP(x4, x5, x6, x7, x4, x5, x6, x7, SHF_177);
- SHF_W4_SP(x8, x9, x10, x11, x8, x9, x10, x11, SHF_177);
- SHF_W4_SP(x12, x13, x14, x15, x12, x13, x14, x15, SHF_177);
- ST_SP16_INC(x0, x1, x2, x3, x4, x5, x6, x7, x8, x9, x10, x11,
- x12, x13, x14, x15, x, 4);
- }
-
- if (n & 31)
- {
- if (n & 16)
- {
- LD_SP8_INC(px, 4, x0, x1, x2, x3, x4, x5, x6, x7);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- x0, x1, x2, x3);
- MUL4(x4, da_i_vec, x5, da_i_vec, x6, da_i_vec, x7, da_i_vec,
- x4, x5, x6, x7);
- SHF_W4_SP(x0, x1, x2, x3, x0, x1, x2, x3, SHF_177);
- SHF_W4_SP(x4, x5, x6, x7, x4, x5, x6, x7, SHF_177);
- ST_SP8_INC(x0, x1, x2, x3, x4, x5, x6, x7, x, 4);
- }
-
- if (n & 8)
- {
- LD_SP4_INC(px, 4, x0, x1, x2, x3);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- x0, x1, x2, x3);
- SHF_W4_SP(x0, x1, x2, x3, x0, x1, x2, x3, SHF_177);
- ST_SP4_INC(x0, x1, x2, x3, x, 4);
- }
-
- if (n & 4)
- {
- LD_SP2_INC(px, 4, x0, x1);
- MUL2(x0, da_i_vec, x1, da_i_vec, x0, x1);
- SHF_W2_SP(x0, x1, x0, x1, SHF_177);
- ST_SP2_INC(x0, x1, x, 4);
- }
-
- if (n & 2)
- {
- LD_GP4_INC(px, 1, f0, f1, f2, f3);
- MUL4(f0, da_i, f1, -da_i, f2, da_i, f3, -da_i,
- f0, f1, f2, f3);
- ST_GP4_INC(f1, f0, f3, f2, x, 1);
- }
-
- if (n & 1)
- {
- LD_GP2_INC(px, 1, f0, f1);
- MUL2(f0, da_i, f1, -da_i, f0, f1);
- ST_GP2_INC(f1, f0, x, 1);
- }
- }
- }
- else if (0.0 == da_i)
- {
- da_r_vec = COPY_FLOAT_TO_VECTOR(da_r);
-
- if (n > 31)
- {
- FLOAT *x_pref;
- BLASLONG pref_offset;
-
- pref_offset = (BLASLONG)x & (L1_DATA_LINESIZE - 1);
- if (pref_offset > 0)
- {
- pref_offset = L1_DATA_LINESIZE - pref_offset;
- pref_offset = pref_offset / sizeof(FLOAT);
- }
- x_pref = x + pref_offset + 64 + 32;
-
- LD_SP8_INC(px, 4, x0, x1, x2, x3, x4, x5, x6, x7);
- for (i = (n >> 5)- 1; i--;)
- {
- PREF_OFFSET(x_pref, 0);
- PREF_OFFSET(x_pref, 32);
- PREF_OFFSET(x_pref, 64);
- PREF_OFFSET(x_pref, 96);
- PREF_OFFSET(x_pref, 128);
- PREF_OFFSET(x_pref, 160);
- PREF_OFFSET(x_pref, 192);
- PREF_OFFSET(x_pref, 224);
- x_pref += 64;
-
- x8 = LD_SP(px); px += 4;
- x0 *= da_r_vec;
- x9 = LD_SP(px); px += 4;
- x1 *= da_r_vec;
- x10 = LD_SP(px); px += 4;
- x2 *= da_r_vec;
- x11 = LD_SP(px); px += 4;
- x3 *= da_r_vec;
- x12 = LD_SP(px); px += 4;
- x4 *= da_r_vec;
- x13 = LD_SP(px); px += 4;
- x5 *= da_r_vec;
- ST_SP(x0, x); x += 4;
- x14 = LD_SP(px); px += 4;
- x6 *= da_r_vec;
- ST_SP(x1, x); x += 4;
- x15 = LD_SP(px); px += 4;
- x7 *= da_r_vec;
- ST_SP(x2, x); x += 4;
- x8 *= da_r_vec;
- ST_SP(x3, x); x += 4;
- x9 *= da_r_vec;
- ST_SP(x4, x); x += 4;
- x10 *= da_r_vec;
- ST_SP(x5, x); x += 4;
- x11 *= da_r_vec;
- ST_SP(x6, x); x += 4;
- x12 *= da_r_vec;
- ST_SP(x7, x); x += 4;
- x13 *= da_r_vec;
- ST_SP(x8, x); x += 4;
- x0 = LD_SP(px); px += 4;
- x14 *= da_r_vec;
- ST_SP(x9, x); x += 4;
- x1 = LD_SP(px); px += 4;
- x15 *= da_r_vec;
- ST_SP(x10, x); x += 4;
- x2 = LD_SP(px); px += 4;
- ST_SP(x11, x); x += 4;
- x3 = LD_SP(px); px += 4;
- ST_SP(x12, x); x += 4;
- x4 = LD_SP(px); px += 4;
- ST_SP(x13, x); x += 4;
- x5 = LD_SP(px); px += 4;
- ST_SP(x14, x); x += 4;
- x6 = LD_SP(px); px += 4;
- ST_SP(x15, x); x += 4;
- x7 = LD_SP(px); px += 4;
- }
-
- LD_SP8_INC(px, 4, x8, x9, x10, x11, x12, x13, x14, x15);
- MUL4(x0, da_r_vec, x1, da_r_vec, x2, da_r_vec, x3, da_r_vec,
- x0, x1, x2, x3);
- MUL4(x4, da_r_vec, x5, da_r_vec, x6, da_r_vec, x7, da_r_vec,
- x4, x5, x6, x7);
- MUL4(x8, da_r_vec, x9, da_r_vec, x10, da_r_vec, x11, da_r_vec,
- x8, x9, x10, x11);
- MUL4(x12, da_r_vec, x13, da_r_vec, x14, da_r_vec, x15, da_r_vec,
- x12, x13, x14, x15);
- ST_SP16_INC(x0, x1, x2, x3, x4, x5, x6, x7, x8, x9, x10, x11,
- x12, x13, x14, x15, x, 4);
- }
-
- if (n & 31)
- {
- if (n & 16)
- {
- LD_SP8_INC(px, 4, x0, x1, x2, x3, x4, x5, x6, x7);
- MUL4(x0, da_r_vec, x1, da_r_vec, x2, da_r_vec, x3, da_r_vec,
- x0, x1, x2, x3);
- MUL4(x4, da_r_vec, x5, da_r_vec, x6, da_r_vec, x7, da_r_vec,
- x4, x5, x6, x7);
- ST_SP8_INC(x0, x1, x2, x3, x4, x5, x6, x7, x, 4);
- }
-
- if (n & 8)
- {
- LD_SP4_INC(px, 4, x0, x1, x2, x3);
- MUL4(x0, da_r_vec, x1, da_r_vec, x2, da_r_vec, x3, da_r_vec,
- x0, x1, x2, x3);
- ST_SP4_INC(x0, x1, x2, x3, x, 4);
- }
-
- if (n & 4)
- {
- LD_SP2_INC(px, 4, x0, x1);
- MUL2(x0, da_r_vec, x1, da_r_vec, x0, x1);
- ST_SP2_INC(x0, x1, x, 4);
- }
-
- if (n & 2)
- {
- LD_GP4_INC(px, 1, f0, f1, f2, f3);
- MUL4(f0, da_r, f1, da_r, f2, da_r, f3, da_r, f0, f1, f2, f3);
- ST_GP4_INC(f0, f1, f2, f3, x, 1);
- }
-
- if (n & 1)
- {
- LD_GP2_INC(px, 1, f0, f1);
- MUL2(f0, da_r, f1, da_r, f0, f1);
- ST_GP2_INC(f0, f1, x, 1);
- }
- }
- }
- else
- {
- FLOAT *x_pref;
- BLASLONG pref_offset;
-
- pref_offset = (BLASLONG)x & (L1_DATA_LINESIZE - 1);
- if (pref_offset > 0)
- {
- pref_offset = L1_DATA_LINESIZE - pref_offset;
- pref_offset = pref_offset / sizeof(FLOAT);
- }
- x_pref = x + pref_offset + 64;
-
- da_i_vec = COPY_FLOAT_TO_VECTOR(da_i);
- da_i_vec_neg = -da_i_vec;
- da_i_vec = (v4f32) __msa_ilvev_w((v4i32) da_i_vec_neg, (v4i32) da_i_vec);
-
- da_r_vec = COPY_FLOAT_TO_VECTOR(da_r);
-
- for (i = (n >> 5); i--;)
- {
- PREF_OFFSET(x_pref, 0);
- PREF_OFFSET(x_pref, 32);
- PREF_OFFSET(x_pref, 64);
- PREF_OFFSET(x_pref, 96);
- PREF_OFFSET(x_pref, 128);
- PREF_OFFSET(x_pref, 160);
- PREF_OFFSET(x_pref, 192);
- PREF_OFFSET(x_pref, 224);
- x_pref += 64;
-
- LD_SP16_INC(px, 4, x0, x1, x2, x3, x4, x5, x6, x7, x8, x9, x10,
- x11, x12, x13, x14, x15);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- d0, d1, d2, d3);
- MUL4(x4, da_i_vec, x5, da_i_vec, x6, da_i_vec, x7, da_i_vec,
- d4, d5, d6, d7);
- MUL4(x8, da_i_vec, x9, da_i_vec, x10, da_i_vec, x11, da_i_vec,
- d8, d9, d10, d11);
- MUL4(x12, da_i_vec, x13, da_i_vec, x14, da_i_vec, x15, da_i_vec,
- d12, d13, d14, d15);
- SHF_W4_SP(d0, d1, d2, d3, d0, d1, d2, d3, SHF_177);
- SHF_W4_SP(d4, d5, d6, d7, d4, d5, d6, d7, SHF_177);
- SHF_W4_SP(d8, d9, d10, d11, d8, d9, d10, d11, SHF_177);
- SHF_W4_SP(d12, d13, d14, d15, d12, d13, d14, d15, SHF_177);
- FMADD4(x0, x1, x2, x3, da_r_vec, d0, d1, d2, d3);
- FMADD4(x4, x5, x6, x7, da_r_vec, d4, d5, d6, d7);
- FMADD4(x8, x9, x10, x11, da_r_vec, d8, d9, d10, d11);
- FMADD4(x12, x13, x14, x15, da_r_vec, d12, d13, d14, d15);
- ST_SP16_INC(d0, d1, d2, d3, d4, d5, d6, d7, d8, d9, d10, d11,
- d12, d13, d14, d15, x, 4);
- }
-
- if (n & 31)
- {
- if (n & 16)
- {
- LD_SP8_INC(px, 4, x0, x1, x2, x3, x4, x5, x6, x7);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- d0, d1, d2, d3);
- MUL4(x4, da_i_vec, x5, da_i_vec, x6, da_i_vec, x7, da_i_vec,
- d4, d5, d6, d7);
- SHF_W4_SP(d0, d1, d2, d3, d0, d1, d2, d3, SHF_177);
- SHF_W4_SP(d4, d5, d6, d7, d4, d5, d6, d7, SHF_177);
- FMADD4(x0, x1, x2, x3, da_r_vec, d0, d1, d2, d3);
- FMADD4(x4, x5, x6, x7, da_r_vec, d4, d5, d6, d7);
- ST_SP8_INC(d0, d1, d2, d3, d4, d5, d6, d7, x, 4);
- }
-
- if (n & 8)
- {
- LD_SP4_INC(px, 4, x0, x1, x2, x3);
- MUL4(x0, da_i_vec, x1, da_i_vec, x2, da_i_vec, x3, da_i_vec,
- d0, d1, d2, d3);
- SHF_W4_SP(d0, d1, d2, d3, d0, d1, d2, d3, SHF_177);
- FMADD4(x0, x1, x2, x3, da_r_vec, d0, d1, d2, d3);
- ST_SP4_INC(d0, d1, d2, d3, x, 4);
- }
-
- if (n & 4)
- {
- LD_SP2_INC(px, 4, x0, x1);
- MUL2(x0, da_i_vec, x1, da_i_vec, d0, d1);
- SHF_W2_SP(d0, d1, d0, d1, SHF_177);
- FMADD2(x0, x1, da_r_vec, d0, d1);
- ST_SP2_INC(d0, d1, x, 4);
- }
-
- if (n & 2)
- {
- LD_GP4_INC(px, 1, f0, f1, f2, f3);
-
- tp0 = da_r * f0;
- tp0 -= da_i * f1;
- tp1 = da_r * f1;
- tp1 += da_i * f0;
- tp2 = da_r * f2;
- tp2 -= da_i * f3;
- tp3 = da_r * f3;
- tp3 += da_i * f2;
-
- ST_GP4_INC(tp0, tp1, tp2, tp3, x, 1);
- }
-
- if (n & 1)
- {
- LD_GP2_INC(px, 1, f0, f1);
-
- tp0 = da_r * f0;
- tp0 -= da_i * f1;
- tp1 = da_r * f1;
- tp1 += da_i * f0;
-
- ST_GP2_INC(tp0, tp1, x, 1);
- }
- }
- }
- }
- else
- {
- inc_x2 = 2 * inc_x;
-
- if ((0.0 == da_r) && (0.0 == da_i))
- {
- for (i = n; i--;)
- {
- *x = 0;
- *(x + 1) = 0;
-
- x += inc_x2;
- }
- }
- else if (0.0 == da_r)
- {
- da_i_vec = COPY_FLOAT_TO_VECTOR(da_i);
- da_i_vec_neg = -da_i_vec;
- da_i_vec = (v4f32) __msa_ilvev_w((v4i32) da_i_vec_neg, (v4i32) da_i_vec);
-
- for (i = (n >> 4); i--;)
- {
- LD_SP16_INC(px, inc_x2, x0, x1, x2, x3, x4, x5, x6, x7, x8, x9,
- x10, x11, x12, x13, x14, x15);
- PCKEV_D4_SP(x1, x0, x3, x2, x5, x4, x7, x6, d0, d1, d2, d3);
- PCKEV_D4_SP(x9, x8, x11, x10, x13, x12, x15, x14, d4, d5, d6, d7);
- MUL4(d0, da_i_vec, d1, da_i_vec, d2, da_i_vec, d3, da_i_vec,
- d0, d1, d2, d3);
- MUL4(d4, da_i_vec, d5, da_i_vec, d6, da_i_vec, d7, da_i_vec,
- d4, d5, d6, d7);
-
- *x = d0[1];
- *(x + 1) = d0[0];
- x += inc_x2;
- *x = d0[3];
- *(x + 1) = d0[2];
- x += inc_x2;
- *x = d1[1];
- *(x + 1) = d1[0];
- x += inc_x2;
- *x = d1[3];
- *(x + 1) = d1[2];
- x += inc_x2;
- *x = d2[1];
- *(x + 1) = d2[0];
- x += inc_x2;
- *x = d2[3];
- *(x + 1) = d2[2];
- x += inc_x2;
- *x = d3[1];
- *(x + 1) = d3[0];
- x += inc_x2;
- *x = d3[3];
- *(x + 1) = d3[2];
- x += inc_x2;
- *x = d4[1];
- *(x + 1) = d4[0];
- x += inc_x2;
- *x = d4[3];
- *(x + 1) = d4[2];
- x += inc_x2;
- *x = d5[1];
- *(x + 1) = d5[0];
- x += inc_x2;
- *x = d5[3];
- *(x + 1) = d5[2];
- x += inc_x2;
- *x = d6[1];
- *(x + 1) = d6[0];
- x += inc_x2;
- *x = d6[3];
- *(x + 1) = d6[2];
- x += inc_x2;
- *x = d7[1];
- *(x + 1) = d7[0];
- x += inc_x2;
- *x = d7[3];
- *(x + 1) = d7[2];
- x += inc_x2;
- }
-
- if (n & 15)
- {
- if (n & 8)
- {
- LD_SP8_INC(px, inc_x2, x0, x1, x2, x3, x4, x5, x6, x7);
- PCKEV_D4_SP(x1, x0, x3, x2, x5, x4, x7, x6, d0, d1, d2, d3);
- MUL4(d0, da_i_vec, d1, da_i_vec, d2, da_i_vec, d3, da_i_vec,
- d0, d1, d2, d3);
-
- *x = d0[1];
- *(x + 1) = d0[0];
- x += inc_x2;
- *x = d0[3];
- *(x + 1) = d0[2];
- x += inc_x2;
- *x = d1[1];
- *(x + 1) = d1[0];
- x += inc_x2;
- *x = d1[3];
- *(x + 1) = d1[2];
- x += inc_x2;
- *x = d2[1];
- *(x + 1) = d2[0];
- x += inc_x2;
- *x = d2[3];
- *(x + 1) = d2[2];
- x += inc_x2;
- *x = d3[1];
- *(x + 1) = d3[0];
- x += inc_x2;
- *x = d3[3];
- *(x + 1) = d3[2];
- x += inc_x2;
- }
-
- if (n & 4)
- {
- LD_SP4_INC(px, inc_x2, x0, x1, x2, x3);
- PCKEV_D2_SP(x1, x0, x3, x2, d0, d1);
- MUL2(d0, da_i_vec, d1, da_i_vec, d0, d1);
-
- *x = d0[1];
- *(x + 1) = d0[0];
- x += inc_x2;
- *x = d0[3];
- *(x + 1) = d0[2];
- x += inc_x2;
- *x = d1[1];
- *(x + 1) = d1[0];
- x += inc_x2;
- *x = d1[3];
- *(x + 1) = d1[2];
- x += inc_x2;
- }
-
- if (n & 2)
- {
- f0 = *px;
- f1 = *(px + 1);
- px += inc_x2;
- f2 = *px;
- f3 = *(px + 1);
- px += inc_x2;
-
- MUL4(f0, da_i, f1, -da_i, f2, da_i, f3, -da_i, f0, f1, f2, f3);
-
- *x = f1;
- *(x + 1) = f0;
- x += inc_x2;
- *x = f3;
- *(x + 1) = f2;
- x += inc_x2;
- }
-
- if (n & 1)
- {
- f0 = *x;
- f1 = *(x + 1);
-
- MUL2(f0, da_i, f1, -da_i, f0, f1);
-
- *x = f1;
- *(x + 1) = f0;
- }
- }
- }
- else if (0.0 == da_i)
- {
- da_r_vec = COPY_FLOAT_TO_VECTOR(da_r);
-
- for (i = (n >> 4); i--;)
- {
- LD_SP16_INC(px, inc_x2, x0, x1, x2, x3, x4, x5, x6, x7, x8, x9,
- x10, x11, x12, x13, x14, x15);
- PCKEV_D4_SP(x1, x0, x3, x2, x5, x4, x7, x6, d0, d1, d2, d3);
- PCKEV_D4_SP(x9, x8, x11, x10, x13, x12, x15, x14, d4, d5, d6, d7);
- MUL4(d0, da_r_vec, d1, da_r_vec, d2, da_r_vec, d3, da_r_vec,
- d0, d1, d2, d3);
- MUL4(d4, da_r_vec, d5, da_r_vec, d6, da_r_vec, d7, da_r_vec,
- d4, d5, d6, d7);
-
- *x = d0[0];
- *(x + 1) = d0[1];
- x += inc_x2;
- *x = d0[2];
- *(x + 1) = d0[3];
- x += inc_x2;
- *x = d1[0];
- *(x + 1) = d1[1];
- x += inc_x2;
- *x = d1[2];
- *(x + 1) = d1[3];
- x += inc_x2;
- *x = d2[0];
- *(x + 1) = d2[1];
- x += inc_x2;
- *x = d2[2];
- *(x + 1) = d2[3];
- x += inc_x2;
- *x = d3[0];
- *(x + 1) = d3[1];
- x += inc_x2;
- *x = d3[2];
- *(x + 1) = d3[3];
- x += inc_x2;
- *x = d4[0];
- *(x + 1) = d4[1];
- x += inc_x2;
- *x = d4[2];
- *(x + 1) = d4[3];
- x += inc_x2;
- *x = d5[0];
- *(x + 1) = d5[1];
- x += inc_x2;
- *x = d5[2];
- *(x + 1) = d5[3];
- x += inc_x2;
- *x = d6[0];
- *(x + 1) = d6[1];
- x += inc_x2;
- *x = d6[2];
- *(x + 1) = d6[3];
- x += inc_x2;
- *x = d7[0];
- *(x + 1) = d7[1];
- x += inc_x2;
- *x = d7[2];
- *(x + 1) = d7[3];
- x += inc_x2;
- }
-
- if (n & 15)
- {
- if (n & 8)
- {
- LD_SP8_INC(px, inc_x2, x0, x1, x2, x3, x4, x5, x6, x7);
- PCKEV_D4_SP(x1, x0, x3, x2, x5, x4, x7, x6, d0, d1, d2, d3);
- MUL4(d0, da_r_vec, d1, da_r_vec, d2, da_r_vec, d3, da_r_vec,
- d0, d1, d2, d3);
-
- *x = d0[0];
- *(x + 1) = d0[1];
- x += inc_x2;
- *x = d0[2];
- *(x + 1) = d0[3];
- x += inc_x2;
- *x = d1[0];
- *(x + 1) = d1[1];
- x += inc_x2;
- *x = d1[2];
- *(x + 1) = d1[3];
- x += inc_x2;
- *x = d2[0];
- *(x + 1) = d2[1];
- x += inc_x2;
- *x = d2[2];
- *(x + 1) = d2[3];
- x += inc_x2;
- *x = d3[0];
- *(x + 1) = d3[1];
- x += inc_x2;
- *x = d3[2];
- *(x + 1) = d3[3];
- x += inc_x2;
- }
-
- if (n & 4)
- {
- LD_SP4_INC(px, inc_x2, x0, x1, x2, x3);
- PCKEV_D2_SP(x1, x0, x3, x2, d0, d1);
- MUL2(d0, da_r_vec, d1, da_r_vec, d0, d1);
-
- *x = d0[0];
- *(x + 1) = d0[1];
- x += inc_x2;
- *x = d0[2];
- *(x + 1) = d0[3];
- x += inc_x2;
- *x = d1[0];
- *(x + 1) = d1[1];
- x += inc_x2;
- *x = d1[2];
- *(x + 1) = d1[3];
- x += inc_x2;
- }
-
- if (n & 2)
- {
- f0 = *px;
- f1 = *(px + 1);
- px += inc_x2;
- f2 = *px;
- f3 = *(px + 1);
- px += inc_x2;
-
- MUL4(f0, da_r, f1, da_r, f2, da_r, f3, da_r, f0, f1, f2, f3);
-
- *x = f0;
- *(x + 1) = f1;
- x += inc_x2;
- *x = f2;
- *(x + 1) = f3;
- x += inc_x2;
- }
-
- if (n & 1)
- {
- f0 = *x;
- f1 = *(x + 1);
-
- MUL2(f0, da_r, f1, da_r, f0, f1);
-
- *x = f0;
- *(x + 1) = f1;
- }
- }
- }
- else
- {
- da_i_vec = COPY_FLOAT_TO_VECTOR(da_i);
- da_i_vec_neg = -da_i_vec;
- da_i_vec = (v4f32) __msa_ilvev_w((v4i32) da_i_vec_neg, (v4i32) da_i_vec);
-
- da_r_vec = COPY_FLOAT_TO_VECTOR(da_r);
-
- for (i = (n >> 4); i--;)
- {
- LD_SP16_INC(px, inc_x2, x0, x1, x2, x3, x4, x5, x6, x7, x8, x9,
- x10, x11, x12, x13, x14, x15);
- PCKEV_D4_SP(x1, x0, x3, x2, x5, x4, x7, x6, d0, d1, d2, d3);
- PCKEV_D4_SP(x9, x8, x11, x10, x13, x12, x15, x14, d4, d5, d6, d7);
- MUL4(d0, da_i_vec, d1, da_i_vec, d2, da_i_vec, d3, da_i_vec,
- x0, x1, x2, x3);
- MUL4(d4, da_i_vec, d5, da_i_vec, d6, da_i_vec, d7, da_i_vec,
- x4, x5, x6, x7);
- MUL4(d0, da_r_vec, d1, da_r_vec, d2, da_r_vec, d3, da_r_vec,
- d0, d1, d2, d3);
- MUL4(d4, da_r_vec, d5, da_r_vec, d6, da_r_vec, d7, da_r_vec,
- d4, d5, d6, d7);
- SHF_W4_SP(x0, x1, x2, x3, x0, x1, x2, x3, SHF_177);
- SHF_W4_SP(x4, x5, x6, x7, x4, x5, x6, x7, SHF_177);
- ADD4(d0, x0, d1, x1, d2, x2, d3, x3, d0, d1, d2, d3);
- ADD4(d4, x4, d5, x5, d6, x6, d7, x7, d4, d5, d6, d7);
-
- *x = d0[0];
- *(x + 1) = d0[1];
- x += inc_x2;
- *x = d0[2];
- *(x + 1) = d0[3];
- x += inc_x2;
- *x = d1[0];
- *(x + 1) = d1[1];
- x += inc_x2;
- *x = d1[2];
- *(x + 1) = d1[3];
- x += inc_x2;
- *x = d2[0];
- *(x + 1) = d2[1];
- x += inc_x2;
- *x = d2[2];
- *(x + 1) = d2[3];
- x += inc_x2;
- *x = d3[0];
- *(x + 1) = d3[1];
- x += inc_x2;
- *x = d3[2];
- *(x + 1) = d3[3];
- x += inc_x2;
- *x = d4[0];
- *(x + 1) = d4[1];
- x += inc_x2;
- *x = d4[2];
- *(x + 1) = d4[3];
- x += inc_x2;
- *x = d5[0];
- *(x + 1) = d5[1];
- x += inc_x2;
- *x = d5[2];
- *(x + 1) = d5[3];
- x += inc_x2;
- *x = d6[0];
- *(x + 1) = d6[1];
- x += inc_x2;
- *x = d6[2];
- *(x + 1) = d6[3];
- x += inc_x2;
- *x = d7[0];
- *(x + 1) = d7[1];
- x += inc_x2;
- *x = d7[2];
- *(x + 1) = d7[3];
- x += inc_x2;
- }
-
- if (n & 15)
- {
- if (n & 8)
- {
- LD_SP8_INC(px, inc_x2, x0, x1, x2, x3, x4, x5, x6, x7);
- PCKEV_D4_SP(x1, x0, x3, x2, x5, x4, x7, x6, d0, d1, d2, d3);
- MUL4(d0, da_i_vec, d1, da_i_vec, d2, da_i_vec, d3, da_i_vec,
- x0, x1, x2, x3);
- MUL4(d0, da_r_vec, d1, da_r_vec, d2, da_r_vec, d3, da_r_vec,
- d0, d1, d2, d3);
- SHF_W4_SP(x0, x1, x2, x3, x0, x1, x2, x3, SHF_177);
- ADD4(d0, x0, d1, x1, d2, x2, d3, x3, d0, d1, d2, d3);
-
- *x = d0[0];
- *(x + 1) = d0[1];
- x += inc_x2;
- *x = d0[2];
- *(x + 1) = d0[3];
- x += inc_x2;
- *x = d1[0];
- *(x + 1) = d1[1];
- x += inc_x2;
- *x = d1[2];
- *(x + 1) = d1[3];
- x += inc_x2;
- *x = d2[0];
- *(x + 1) = d2[1];
- x += inc_x2;
- *x = d2[2];
- *(x + 1) = d2[3];
- x += inc_x2;
- *x = d3[0];
- *(x + 1) = d3[1];
- x += inc_x2;
- *x = d3[2];
- *(x + 1) = d3[3];
- x += inc_x2;
- }
-
- if (n & 4)
- {
- LD_SP4_INC(px, inc_x2, x0, x1, x2, x3);
- PCKEV_D2_SP(x1, x0, x3, x2, d0, d1);
- MUL2(d0, da_i_vec, d1, da_i_vec, x0, x1);
- MUL2(d0, da_r_vec, d1, da_r_vec, d0, d1);
- SHF_W2_SP(x0, x1, x0, x1, SHF_177);
- ADD2(d0, x0, d1, x1, d0, d1);
-
- *x = d0[0];
- *(x + 1) = d0[1];
- x += inc_x2;
- *x = d0[2];
- *(x + 1) = d0[3];
- x += inc_x2;
- *x = d1[0];
- *(x + 1) = d1[1];
- x += inc_x2;
- *x = d1[2];
- *(x + 1) = d1[3];
- x += inc_x2;
- }
-
- if (n & 2)
- {
- f0 = *px;;
- f1 = *(px + 1);
- px += inc_x2;
- f2 = *px;
- f3 = *(px + 1);
- px += inc_x2;
-
- tp0 = da_r * f0;
- tp0 -= da_i * f1;
- tp1 = da_r * f1;
- tp1 += da_i * f0;
- tp2 = da_r * f2;
- tp2 -= da_i * f3;
- tp3 = da_r * f3;
- tp3 += da_i * f2;
-
- *x = tp0;
- *(x + 1) = tp1;
- x += inc_x2;
- *x = tp2;
- *(x + 1) = tp3;
- x += inc_x2;
- }
-
- if (n & 1)
- {
- f0 = *px; px += 1;
- f1 = *px;
-
- tp0 = da_r * f0;
- tp0 -= da_i * f1;
- tp1 = da_r * f1;
- tp1 += da_i * f0;
-
- *x = tp0; x += 1;
- *x = tp1;
- }
- }
- }
- }
-
- return (0);
- }
|