Exemple #1
0
void GLMatrix<GLfloat>::glVertex3v(int num, const GLfloat* v_arr)
{
#ifdef GLMATRIX_USE_SSE
    __builtin_prefetch(v_arr);

    sse_vector r0,r1,r2;
    register sse_v4sf m_col0,m_col1,m_col2,m_col3;

    m_col0 = __builtin_ia32_loadaps(m);
    m_col1 = __builtin_ia32_loadaps(m+4);
    m_col2 = __builtin_ia32_loadaps(m+8);
    m_col3 = __builtin_ia32_loadaps(m+12);

    for(register int k = 0; k < num; ++k)
    {
        //load x,y,z
        r0.v4sf = __builtin_ia32_loadss(v_arr);
        r1.v4sf = __builtin_ia32_loadss(v_arr+1);
        r2.v4sf = __builtin_ia32_loadss(v_arr+2);
        //extend into all 4 single floats
        r0.v4sf = __builtin_ia32_shufps(r0.v4sf,r0.v4sf,0x00);
        r1.v4sf = __builtin_ia32_shufps(r1.v4sf,r1.v4sf,0x00);
        r2.v4sf = __builtin_ia32_shufps(r2.v4sf,r2.v4sf,0x00);

        //do the mults
        r0.v4sf = __builtin_ia32_mulps(r0.v4sf,m_col0);
        v_arr+=3;
        r1.v4sf = __builtin_ia32_mulps(r1.v4sf,m_col1);
        //add it all up and, voila
        r2.v4sf = __builtin_ia32_mulps(r2.v4sf,m_col2);
        r0.v4sf = __builtin_ia32_addps(r0.v4sf,r1.v4sf);
        r2.v4sf = __builtin_ia32_addps(r2.v4sf,m_col3);
        r0.v4sf = __builtin_ia32_addps(r0.v4sf,r2.v4sf);

        ::glVertex4fv(r0.f);
    }

#else
    register GLfloat ret[3];
    register GLfloat recip;
    for(register int k = 0; k < num; ++k)
    {
        ret[0] = v_arr[k*3]*m0 + v_arr[1+k*3]*m4 + v_arr[2+k*3]*m8 + m12;
        ret[1] = v_arr[k*3]*m1 + v_arr[1+k*3]*m5 + v_arr[2+k*3]*m9 + m13;
        ret[2] = v_arr[k*3]*m2 + v_arr[1+k*3]*m6 + v_arr[2+k*3]*m10 + m14;

        recip = 1/(v_arr[k*3]*m3 + v_arr[1+k*3]*m7 + v_arr[2+k*3]*m11 + m15);

        ret[0] *= recip;
        ret[1] *= recip;
        ret[2] *= recip;
        ::glVertex3fv(ret);
    }
#endif
}
Exemple #2
0
void GLMatrix<GLfloat>::glVertex4v(int num, const GLfloat* v_arr)
{
#ifdef GLMATRIX_USE_SSE
    __builtin_prefetch(m);

    sse_vector r0,r1,r2,r3;
    register sse_v4sf m_col0,m_col1,m_col2,m_col3;

    __builtin_prefetch(v_arr);

    m_col0 = __builtin_ia32_loadaps(m);
    m_col1 = __builtin_ia32_loadaps(m+4);
    m_col2 = __builtin_ia32_loadaps(m+8);
    m_col3 = __builtin_ia32_loadaps(m+12);

    for(register int k = 0; k < num; ++k)
    {
        //load x,y,z,w into v
        r0.v4sf = __builtin_ia32_loadss(v_arr);
        r1.v4sf = __builtin_ia32_loadss(v_arr+1);
        r2.v4sf = __builtin_ia32_loadss(v_arr+2);
        r3.v4sf = __builtin_ia32_loadss(v_arr+3);
        r0.v4sf = __builtin_ia32_shufps(r0.v4sf,r0.v4sf,0x00);
        r1.v4sf = __builtin_ia32_shufps(r1.v4sf,r1.v4sf,0x00);
        r2.v4sf = __builtin_ia32_shufps(r2.v4sf,r2.v4sf,0x00);
        r3.v4sf = __builtin_ia32_shufps(r3.v4sf,r3.v4sf,0x00);

        r0.v4sf = __builtin_ia32_mulps(m_col0,r0.v4sf);
        v_arr+=4;
        r1.v4sf = __builtin_ia32_mulps(m_col1,r1.v4sf);
        r2.v4sf = __builtin_ia32_mulps(m_col2,r2.v4sf);
        r3.v4sf = __builtin_ia32_mulps(m_col3,r3.v4sf);
        r0.v4sf = __builtin_ia32_addps(r0.v4sf,r1.v4sf);
        r2.v4sf = __builtin_ia32_addps(r2.v4sf,r3.v4sf);
        r0.v4sf = __builtin_ia32_addps(r0.v4sf,r2.v4sf);

        ::glVertex4fv(r0.f);
    }

#else
    register GLfloat ret[4];
    for(register int k = 0; k < num; ++k)
    {
        for(register unsigned j = 0; j < 4; ++j)
        {
            ret[j] = 0;
            for(register unsigned i = 0; i < 4; ++i)
                ret[j] += v_arr[i+k*4]*m[j+i*4];
        }
        ::glVertex4fv(ret);
    }
#endif
}
Exemple #3
0
int main() {
	printf("L1 cache line size = %d\n", CLS);
	int i, nx=100;
	float *a, *b, *c1, *c2;
	
	a = (float *) malloc(nx*sizeof(float));
	b = (float *) malloc(nx*sizeof(float));
	c1 = (float *) malloc(nx*sizeof(float));
	c2 = (float *) malloc(nx*sizeof(float));

	for(i=0; i<nx; i++) {
	   a[i] = i;	
	   b[i] = 2*i;	
	}

	// without sse
	for(i=0; i<nx; i++) c1[i] = a[i]+b[i];	

	// using sse
	v4sf va, vb, vc;
	for(i=0; i<nx; i+=4) {
		va = __builtin_ia32_loadups( &a[i] );
		vb = __builtin_ia32_loadups( &b[i] );
		vc = __builtin_ia32_addps( va, vb );
		__builtin_ia32_storeups(&c2[i], vc);
	}

	// result
	float errsum;
	for(i=0; i<nx; i++) errsum += c1[i] - c2[i];
	printf("errsum=%f\n", errsum);

	return 0;
}
Exemple #4
0
void mul6(float * tab, float ** a, float * b, int n){
    int i,j;    
    float add[4];
    v4sf va, vb, vc;
   
    for(i=0;i<n;i++){
        va = __builtin_ia32_loadups(a[i]);
        vb = __builtin_ia32_loadups(b);
        vc = __builtin_ia32_mulps (vb, va);
        __builtin_ia32_storeups (add, vc);
       
        for(j=4; j<n; j+=4){
            va = __builtin_ia32_loadups(a[i]+j);
            vb = __builtin_ia32_loadups(b+j);
            vc = __builtin_ia32_mulps (vb, va);
            va = __builtin_ia32_loadups(add);
            vb = __builtin_ia32_addps (vc, va);
            __builtin_ia32_storeups (add, vb);
        }
        for(j=0; j<4; j++)
            tab[i] += add[j];
    }
}
void f0() {
  signed char         tmp_c;
//  unsigned char       tmp_Uc;
  signed short        tmp_s;
#ifdef USE_ALL
  unsigned short      tmp_Us;
#endif
  signed int          tmp_i;
  unsigned int        tmp_Ui;
  signed long long    tmp_LLi;
//  unsigned long long  tmp_ULLi;
  float               tmp_f;
  double              tmp_d;

  void*          tmp_vp;
  const void*    tmp_vCp;
  char*          tmp_cp; 
  const char*    tmp_cCp; 
  int*           tmp_ip;
  float*         tmp_fp;
  const float*   tmp_fCp;
  double*        tmp_dp;
  const double*  tmp_dCp;

#define imm_i 32
#define imm_i_0_2 0
#define imm_i_0_4 3
#define imm_i_0_8 7
#define imm_i_0_16 15
  // Check this.
#define imm_i_0_256 0

  V2i*   tmp_V2ip;
  V1LLi* tmp_V1LLip;
  V2LLi* tmp_V2LLip;

  // 64-bit
  V8c    tmp_V8c;
  V4s    tmp_V4s;
  V2i    tmp_V2i;
  V1LLi  tmp_V1LLi;
#ifdef USE_3DNOW
  V2f    tmp_V2f;
#endif

  // 128-bit
  V16c   tmp_V16c;
  V8s    tmp_V8s;
  V4i    tmp_V4i;
  V2LLi  tmp_V2LLi;
  V4f    tmp_V4f;
  V2d    tmp_V2d;

  tmp_i = __builtin_ia32_comieq(tmp_V4f, tmp_V4f);
  tmp_i = __builtin_ia32_comilt(tmp_V4f, tmp_V4f);
  tmp_i = __builtin_ia32_comile(tmp_V4f, tmp_V4f);
  tmp_i = __builtin_ia32_comigt(tmp_V4f, tmp_V4f);
  tmp_i = __builtin_ia32_comige(tmp_V4f, tmp_V4f);
  tmp_i = __builtin_ia32_comineq(tmp_V4f, tmp_V4f);
  tmp_i = __builtin_ia32_ucomieq(tmp_V4f, tmp_V4f);
  tmp_i = __builtin_ia32_ucomilt(tmp_V4f, tmp_V4f);
  tmp_i = __builtin_ia32_ucomile(tmp_V4f, tmp_V4f);
  tmp_i = __builtin_ia32_ucomigt(tmp_V4f, tmp_V4f);
  tmp_i = __builtin_ia32_ucomige(tmp_V4f, tmp_V4f);
  tmp_i = __builtin_ia32_ucomineq(tmp_V4f, tmp_V4f);
  tmp_i = __builtin_ia32_comisdeq(tmp_V2d, tmp_V2d);
  tmp_i = __builtin_ia32_comisdlt(tmp_V2d, tmp_V2d);
  tmp_i = __builtin_ia32_comisdle(tmp_V2d, tmp_V2d);
  tmp_i = __builtin_ia32_comisdgt(tmp_V2d, tmp_V2d);
  tmp_i = __builtin_ia32_comisdge(tmp_V2d, tmp_V2d);
  tmp_i = __builtin_ia32_comisdneq(tmp_V2d, tmp_V2d);
  tmp_i = __builtin_ia32_ucomisdeq(tmp_V2d, tmp_V2d);
  tmp_i = __builtin_ia32_ucomisdlt(tmp_V2d, tmp_V2d);
  tmp_i = __builtin_ia32_ucomisdle(tmp_V2d, tmp_V2d);
  tmp_i = __builtin_ia32_ucomisdgt(tmp_V2d, tmp_V2d);
  tmp_i = __builtin_ia32_ucomisdge(tmp_V2d, tmp_V2d);
  tmp_i = __builtin_ia32_ucomisdneq(tmp_V2d, tmp_V2d);
  tmp_V4f = __builtin_ia32_addps(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_subps(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_mulps(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_divps(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_addss(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_subss(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_mulss(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_divss(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_cmpps(tmp_V4f, tmp_V4f, 0);
  tmp_V4f = __builtin_ia32_cmpps(tmp_V4f, tmp_V4f, 1);
  tmp_V4f = __builtin_ia32_cmpps(tmp_V4f, tmp_V4f, 2);
  tmp_V4f = __builtin_ia32_cmpps(tmp_V4f, tmp_V4f, 3);
  tmp_V4f = __builtin_ia32_cmpps(tmp_V4f, tmp_V4f, 4);
  tmp_V4f = __builtin_ia32_cmpps(tmp_V4f, tmp_V4f, 5);
  tmp_V4f = __builtin_ia32_cmpps(tmp_V4f, tmp_V4f, 6);
  tmp_V4f = __builtin_ia32_cmpps(tmp_V4f, tmp_V4f, 7);
  tmp_V4f = __builtin_ia32_cmpss(tmp_V4f, tmp_V4f, 0);
  tmp_V4f = __builtin_ia32_cmpss(tmp_V4f, tmp_V4f, 1);
  tmp_V4f = __builtin_ia32_cmpss(tmp_V4f, tmp_V4f, 2);
  tmp_V4f = __builtin_ia32_cmpss(tmp_V4f, tmp_V4f, 3);
  tmp_V4f = __builtin_ia32_cmpss(tmp_V4f, tmp_V4f, 4);
  tmp_V4f = __builtin_ia32_cmpss(tmp_V4f, tmp_V4f, 5);
  tmp_V4f = __builtin_ia32_cmpss(tmp_V4f, tmp_V4f, 6);
  tmp_V4f = __builtin_ia32_cmpss(tmp_V4f, tmp_V4f, 7);
  tmp_V4f = __builtin_ia32_minps(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_maxps(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_minss(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_maxss(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_andps(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_andnps(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_orps(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_xorps(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_movss(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_movhlps(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_movlhps(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_unpckhps(tmp_V4f, tmp_V4f);
  tmp_V4f = __builtin_ia32_unpcklps(tmp_V4f, tmp_V4f);
  tmp_V8c = __builtin_ia32_paddb(tmp_V8c, tmp_V8c);
  tmp_V4s = __builtin_ia32_paddw(tmp_V4s, tmp_V4s);
  tmp_V2i = __builtin_ia32_paddd(tmp_V2i, tmp_V2i);

  tmp_V1LLi = __builtin_ia32_paddq(tmp_V1LLi, tmp_V1LLi);
  tmp_V8c = __builtin_ia32_psubb(tmp_V8c, tmp_V8c);
  tmp_V4s = __builtin_ia32_psubw(tmp_V4s, tmp_V4s);
  tmp_V2i = __builtin_ia32_psubd(tmp_V2i, tmp_V2i);
  tmp_V1LLi = __builtin_ia32_psubq(tmp_V1LLi, tmp_V1LLi);
  tmp_V8c = __builtin_ia32_paddsb(tmp_V8c, tmp_V8c);
  tmp_V4s = __builtin_ia32_paddsw(tmp_V4s, tmp_V4s);
  tmp_V8c = __builtin_ia32_psubsb(tmp_V8c, tmp_V8c);
  tmp_V4s = __builtin_ia32_psubsw(tmp_V4s, tmp_V4s);
  tmp_V8c = __builtin_ia32_paddusb(tmp_V8c, tmp_V8c);
  tmp_V4s = __builtin_ia32_paddusw(tmp_V4s, tmp_V4s);
  tmp_V8c = __builtin_ia32_psubusb(tmp_V8c, tmp_V8c);
  tmp_V4s = __builtin_ia32_psubusw(tmp_V4s, tmp_V4s);
  tmp_V4s = __builtin_ia32_pmullw(tmp_V4s, tmp_V4s);
  tmp_V4s = __builtin_ia32_pmulhw(tmp_V4s, tmp_V4s);
  tmp_V4s = __builtin_ia32_pmulhuw(tmp_V4s, tmp_V4s);
  tmp_V1LLi = __builtin_ia32_pand(tmp_V1LLi, tmp_V1LLi);
  tmp_V1LLi = __builtin_ia32_pandn(tmp_V1LLi, tmp_V1LLi);
  tmp_V1LLi = __builtin_ia32_por(tmp_V1LLi, tmp_V1LLi);
  tmp_V1LLi = __builtin_ia32_pxor(tmp_V1LLi, tmp_V1LLi);
  tmp_V8c = __builtin_ia32_pavgb(tmp_V8c, tmp_V8c);
  tmp_V4s = __builtin_ia32_pavgw(tmp_V4s, tmp_V4s);
  tmp_V8c = __builtin_ia32_pcmpeqb(tmp_V8c, tmp_V8c);
  tmp_V4s = __builtin_ia32_pcmpeqw(tmp_V4s, tmp_V4s);
  tmp_V2i = __builtin_ia32_pcmpeqd(tmp_V2i, tmp_V2i);
  tmp_V8c = __builtin_ia32_pcmpgtb(tmp_V8c, tmp_V8c);
  tmp_V4s = __builtin_ia32_pcmpgtw(tmp_V4s, tmp_V4s);
  tmp_V2i = __builtin_ia32_pcmpgtd(tmp_V2i, tmp_V2i);
  tmp_V8c = __builtin_ia32_pmaxub(tmp_V8c, tmp_V8c);
  tmp_V4s = __builtin_ia32_pmaxsw(tmp_V4s, tmp_V4s);
  tmp_V8c = __builtin_ia32_pminub(tmp_V8c, tmp_V8c);
  tmp_V4s = __builtin_ia32_pminsw(tmp_V4s, tmp_V4s);
  tmp_V8c = __builtin_ia32_punpckhbw(tmp_V8c, tmp_V8c);
  tmp_V4s = __builtin_ia32_punpckhwd(tmp_V4s, tmp_V4s);
  tmp_V2i = __builtin_ia32_punpckhdq(tmp_V2i, tmp_V2i);
  tmp_V8c = __builtin_ia32_punpcklbw(tmp_V8c, tmp_V8c);
  tmp_V4s = __builtin_ia32_punpcklwd(tmp_V4s, tmp_V4s);
  tmp_V2i = __builtin_ia32_punpckldq(tmp_V2i, tmp_V2i);
  tmp_V2d = __builtin_ia32_addpd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_subpd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_mulpd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_divpd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_addsd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_subsd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_mulsd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_divsd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_cmppd(tmp_V2d, tmp_V2d, 0);
  tmp_V2d = __builtin_ia32_cmppd(tmp_V2d, tmp_V2d, 1);
  tmp_V2d = __builtin_ia32_cmppd(tmp_V2d, tmp_V2d, 2);
  tmp_V2d = __builtin_ia32_cmppd(tmp_V2d, tmp_V2d, 3);
  tmp_V2d = __builtin_ia32_cmppd(tmp_V2d, tmp_V2d, 4);
  tmp_V2d = __builtin_ia32_cmppd(tmp_V2d, tmp_V2d, 5);
  tmp_V2d = __builtin_ia32_cmppd(tmp_V2d, tmp_V2d, 6);
  tmp_V2d = __builtin_ia32_cmppd(tmp_V2d, tmp_V2d, 7);
  tmp_V2d = __builtin_ia32_cmpsd(tmp_V2d, tmp_V2d, 0);
  tmp_V2d = __builtin_ia32_cmpsd(tmp_V2d, tmp_V2d, 1);
  tmp_V2d = __builtin_ia32_cmpsd(tmp_V2d, tmp_V2d, 2);
  tmp_V2d = __builtin_ia32_cmpsd(tmp_V2d, tmp_V2d, 3);
  tmp_V2d = __builtin_ia32_cmpsd(tmp_V2d, tmp_V2d, 4);
  tmp_V2d = __builtin_ia32_cmpsd(tmp_V2d, tmp_V2d, 5);
  tmp_V2d = __builtin_ia32_cmpsd(tmp_V2d, tmp_V2d, 6);
  tmp_V2d = __builtin_ia32_cmpsd(tmp_V2d, tmp_V2d, 7);
  tmp_V2d = __builtin_ia32_minpd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_maxpd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_minsd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_maxsd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_andpd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_andnpd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_orpd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_xorpd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_movsd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_unpckhpd(tmp_V2d, tmp_V2d);
  tmp_V2d = __builtin_ia32_unpcklpd(tmp_V2d, tmp_V2d);
  tmp_V16c = __builtin_ia32_paddb128(tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_paddw128(tmp_V8s, tmp_V8s);
  tmp_V4i = __builtin_ia32_paddd128(tmp_V4i, tmp_V4i);
  tmp_V2LLi = __builtin_ia32_paddq128(tmp_V2LLi, tmp_V2LLi);
  tmp_V16c = __builtin_ia32_psubb128(tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_psubw128(tmp_V8s, tmp_V8s);
  tmp_V4i = __builtin_ia32_psubd128(tmp_V4i, tmp_V4i);
  tmp_V2LLi = __builtin_ia32_psubq128(tmp_V2LLi, tmp_V2LLi);
  tmp_V16c = __builtin_ia32_paddsb128(tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_paddsw128(tmp_V8s, tmp_V8s);
  tmp_V16c = __builtin_ia32_psubsb128(tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_psubsw128(tmp_V8s, tmp_V8s);
  tmp_V16c = __builtin_ia32_paddusb128(tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_paddusw128(tmp_V8s, tmp_V8s);
  tmp_V16c = __builtin_ia32_psubusb128(tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_psubusw128(tmp_V8s, tmp_V8s);
  tmp_V8s = __builtin_ia32_pmullw128(tmp_V8s, tmp_V8s);
  tmp_V8s = __builtin_ia32_pmulhw128(tmp_V8s, tmp_V8s);
  tmp_V2LLi = __builtin_ia32_pand128(tmp_V2LLi, tmp_V2LLi);
  tmp_V2LLi = __builtin_ia32_pandn128(tmp_V2LLi, tmp_V2LLi);
  tmp_V2LLi = __builtin_ia32_por128(tmp_V2LLi, tmp_V2LLi);
  tmp_V2LLi = __builtin_ia32_pxor128(tmp_V2LLi, tmp_V2LLi);
  tmp_V16c = __builtin_ia32_pavgb128(tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_pavgw128(tmp_V8s, tmp_V8s);
  tmp_V16c = __builtin_ia32_pcmpeqb128(tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_pcmpeqw128(tmp_V8s, tmp_V8s);
  tmp_V4i = __builtin_ia32_pcmpeqd128(tmp_V4i, tmp_V4i);
  tmp_V16c = __builtin_ia32_pcmpgtb128(tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_pcmpgtw128(tmp_V8s, tmp_V8s);
  tmp_V4i = __builtin_ia32_pcmpgtd128(tmp_V4i, tmp_V4i);
  tmp_V16c = __builtin_ia32_pmaxub128(tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_pmaxsw128(tmp_V8s, tmp_V8s);
  tmp_V16c = __builtin_ia32_pminub128(tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_pminsw128(tmp_V8s, tmp_V8s);
  tmp_V16c = __builtin_ia32_punpckhbw128(tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_punpckhwd128(tmp_V8s, tmp_V8s);
  tmp_V4i = __builtin_ia32_punpckhdq128(tmp_V4i, tmp_V4i);
  tmp_V2LLi = __builtin_ia32_punpckhqdq128(tmp_V2LLi, tmp_V2LLi);
  tmp_V16c = __builtin_ia32_punpcklbw128(tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_punpcklwd128(tmp_V8s, tmp_V8s);
  tmp_V4i = __builtin_ia32_punpckldq128(tmp_V4i, tmp_V4i);
  tmp_V2LLi = __builtin_ia32_punpcklqdq128(tmp_V2LLi, tmp_V2LLi);
  tmp_V8s = __builtin_ia32_packsswb128(tmp_V8s, tmp_V8s);
  tmp_V4i = __builtin_ia32_packssdw128(tmp_V4i, tmp_V4i);
  tmp_V8s = __builtin_ia32_packuswb128(tmp_V8s, tmp_V8s);
  tmp_V8s = __builtin_ia32_pmulhuw128(tmp_V8s, tmp_V8s);
  tmp_V4f = __builtin_ia32_addsubps(tmp_V4f, tmp_V4f);
  tmp_V2d = __builtin_ia32_addsubpd(tmp_V2d, tmp_V2d);
  tmp_V4f = __builtin_ia32_haddps(tmp_V4f, tmp_V4f);
  tmp_V2d = __builtin_ia32_haddpd(tmp_V2d, tmp_V2d);
  tmp_V4f = __builtin_ia32_hsubps(tmp_V4f, tmp_V4f);
  tmp_V2d = __builtin_ia32_hsubpd(tmp_V2d, tmp_V2d);
  tmp_V8s = __builtin_ia32_phaddw128(tmp_V8s, tmp_V8s);
  tmp_V4s = __builtin_ia32_phaddw(tmp_V4s, tmp_V4s);
  tmp_V4i = __builtin_ia32_phaddd128(tmp_V4i, tmp_V4i);
  tmp_V2i = __builtin_ia32_phaddd(tmp_V2i, tmp_V2i);
  tmp_V8s = __builtin_ia32_phaddsw128(tmp_V8s, tmp_V8s);
  tmp_V4s = __builtin_ia32_phaddsw(tmp_V4s, tmp_V4s);
  tmp_V8s = __builtin_ia32_phsubw128(tmp_V8s, tmp_V8s);
  tmp_V4s = __builtin_ia32_phsubw(tmp_V4s, tmp_V4s);
  tmp_V4i = __builtin_ia32_phsubd128(tmp_V4i, tmp_V4i);
  tmp_V2i = __builtin_ia32_phsubd(tmp_V2i, tmp_V2i);
  tmp_V8s = __builtin_ia32_phsubsw128(tmp_V8s, tmp_V8s);
  tmp_V4s = __builtin_ia32_phsubsw(tmp_V4s, tmp_V4s);
  tmp_V16c = __builtin_ia32_pmaddubsw128(tmp_V16c, tmp_V16c);
  tmp_V8c = __builtin_ia32_pmaddubsw(tmp_V8c, tmp_V8c);
  tmp_V8s = __builtin_ia32_pmulhrsw128(tmp_V8s, tmp_V8s);
  tmp_V4s = __builtin_ia32_pmulhrsw(tmp_V4s, tmp_V4s);
  tmp_V16c = __builtin_ia32_pshufb128(tmp_V16c, tmp_V16c);
  tmp_V8c = __builtin_ia32_pshufb(tmp_V8c, tmp_V8c);
  tmp_V16c = __builtin_ia32_psignb128(tmp_V16c, tmp_V16c);
  tmp_V8c = __builtin_ia32_psignb(tmp_V8c, tmp_V8c);
  tmp_V8s = __builtin_ia32_psignw128(tmp_V8s, tmp_V8s);
  tmp_V4s = __builtin_ia32_psignw(tmp_V4s, tmp_V4s);
  tmp_V4i = __builtin_ia32_psignd128(tmp_V4i, tmp_V4i);
  tmp_V2i = __builtin_ia32_psignd(tmp_V2i, tmp_V2i);
  tmp_V16c = __builtin_ia32_pabsb128(tmp_V16c);
  tmp_V8c = __builtin_ia32_pabsb(tmp_V8c);
  tmp_V8s = __builtin_ia32_pabsw128(tmp_V8s);
  tmp_V4s = __builtin_ia32_pabsw(tmp_V4s);
  tmp_V4i = __builtin_ia32_pabsd128(tmp_V4i);
  tmp_V2i = __builtin_ia32_pabsd(tmp_V2i);
  tmp_V4s = __builtin_ia32_psllw(tmp_V4s, tmp_V1LLi);
  tmp_V2i = __builtin_ia32_pslld(tmp_V2i, tmp_V1LLi);
  tmp_V1LLi = __builtin_ia32_psllq(tmp_V1LLi, tmp_V1LLi);
  tmp_V4s = __builtin_ia32_psrlw(tmp_V4s, tmp_V1LLi);
  tmp_V2i = __builtin_ia32_psrld(tmp_V2i, tmp_V1LLi);
  tmp_V1LLi = __builtin_ia32_psrlq(tmp_V1LLi, tmp_V1LLi);
  tmp_V4s = __builtin_ia32_psraw(tmp_V4s, tmp_V1LLi);
  tmp_V2i = __builtin_ia32_psrad(tmp_V2i, tmp_V1LLi);
#ifdef USE_ALL
  tmp_V4s = __builtin_ia32_pshufw(tmp_V4s, imm_i);
#endif
  tmp_V2i = __builtin_ia32_pmaddwd(tmp_V4s, tmp_V4s);
  tmp_V8c = __builtin_ia32_packsswb(tmp_V4s, tmp_V4s);
  tmp_V4s = __builtin_ia32_packssdw(tmp_V2i, tmp_V2i);
  tmp_V8c = __builtin_ia32_packuswb(tmp_V4s, tmp_V4s);

  (void) __builtin_ia32_ldmxcsr(tmp_Ui);
  tmp_Ui = __builtin_ia32_stmxcsr();
  tmp_V4f = __builtin_ia32_cvtpi2ps(tmp_V4f, tmp_V2i);
  tmp_V2i = __builtin_ia32_cvtps2pi(tmp_V4f);
  tmp_V4f = __builtin_ia32_cvtsi2ss(tmp_V4f, tmp_i);
#ifdef USE_64
  tmp_V4f = __builtin_ia32_cvtsi642ss(tmp_V4f, tmp_LLi);
#endif
  tmp_i = __builtin_ia32_cvtss2si(tmp_V4f);
#ifdef USE_64
  tmp_LLi = __builtin_ia32_cvtss2si64(tmp_V4f);
#endif
  tmp_V2i = __builtin_ia32_cvttps2pi(tmp_V4f);
  tmp_i = __builtin_ia32_cvttss2si(tmp_V4f);
#ifdef USE_64
  tmp_LLi = __builtin_ia32_cvttss2si64(tmp_V4f);
#endif
  (void) __builtin_ia32_maskmovq(tmp_V8c, tmp_V8c, tmp_cp);
  tmp_V4f = __builtin_ia32_loadups(tmp_fCp);
  (void) __builtin_ia32_storeups(tmp_fp, tmp_V4f);
  tmp_V4f = __builtin_ia32_loadhps(tmp_V4f, tmp_V2ip);
  tmp_V4f = __builtin_ia32_loadlps(tmp_V4f, tmp_V2ip);
  (void) __builtin_ia32_storehps(tmp_V2ip, tmp_V4f);
  (void) __builtin_ia32_storelps(tmp_V2ip, tmp_V4f);
  tmp_i = __builtin_ia32_movmskps(tmp_V4f);
  tmp_i = __builtin_ia32_pmovmskb(tmp_V8c);
  (void) __builtin_ia32_movntps(tmp_fp, tmp_V4f);
  (void) __builtin_ia32_movntq(tmp_V1LLip, tmp_V1LLi);
  (void) __builtin_ia32_sfence();

  tmp_V4s = __builtin_ia32_psadbw(tmp_V8c, tmp_V8c);
  tmp_V4f = __builtin_ia32_rcpps(tmp_V4f);
  tmp_V4f = __builtin_ia32_rcpss(tmp_V4f);
  tmp_V4f = __builtin_ia32_rsqrtps(tmp_V4f);
  tmp_V4f = __builtin_ia32_rsqrtss(tmp_V4f);
  tmp_V4f = __builtin_ia32_sqrtps(tmp_V4f);
  tmp_V4f = __builtin_ia32_sqrtss(tmp_V4f);
  tmp_V4f = __builtin_ia32_shufps(tmp_V4f, tmp_V4f, imm_i);
#ifdef USE_3DNOW
  (void) __builtin_ia32_femms();
  tmp_V8c = __builtin_ia32_pavgusb(tmp_V8c, tmp_V8c);
  tmp_V2i = __builtin_ia32_pf2id(tmp_V2f);
  tmp_V2f = __builtin_ia32_pfacc(tmp_V2f, tmp_V2f);
  tmp_V2f = __builtin_ia32_pfadd(tmp_V2f, tmp_V2f);
  tmp_V2i = __builtin_ia32_pfcmpeq(tmp_V2f, tmp_V2f);
  tmp_V2i = __builtin_ia32_pfcmpge(tmp_V2f, tmp_V2f);
  tmp_V2i = __builtin_ia32_pfcmpgt(tmp_V2f, tmp_V2f);
  tmp_V2f = __builtin_ia32_pfmax(tmp_V2f, tmp_V2f);
  tmp_V2f = __builtin_ia32_pfmin(tmp_V2f, tmp_V2f);
  tmp_V2f = __builtin_ia32_pfmul(tmp_V2f, tmp_V2f);
  tmp_V2f = __builtin_ia32_pfrcp(tmp_V2f);
  tmp_V2f = __builtin_ia32_pfrcpit1(tmp_V2f, tmp_V2f);
  tmp_V2f = __builtin_ia32_pfrcpit2(tmp_V2f, tmp_V2f);
  tmp_V2f = __builtin_ia32_pfrsqrt(tmp_V2f);
  tmp_V2f = __builtin_ia32_pfrsqit1(tmp_V2f, tmp_V2f);
  tmp_V2f = __builtin_ia32_pfsub(tmp_V2f, tmp_V2f);
  tmp_V2f = __builtin_ia32_pfsubr(tmp_V2f, tmp_V2f);
  tmp_V2f = __builtin_ia32_pi2fd(tmp_V2i);
  tmp_V4s = __builtin_ia32_pmulhrw(tmp_V4s, tmp_V4s);
#endif
#ifdef USE_3DNOWA
  tmp_V2i = __builtin_ia32_pf2iw(tmp_V2f);
  tmp_V2f = __builtin_ia32_pfnacc(tmp_V2f, tmp_V2f);
  tmp_V2f = __builtin_ia32_pfpnacc(tmp_V2f, tmp_V2f);
  tmp_V2f = __builtin_ia32_pi2fw(tmp_V2i);
  tmp_V2f = __builtin_ia32_pswapdsf(tmp_V2f);
  tmp_V2i = __builtin_ia32_pswapdsi(tmp_V2i);
#endif
  (void) __builtin_ia32_maskmovdqu(tmp_V16c, tmp_V16c, tmp_cp);
  tmp_V2d = __builtin_ia32_loadupd(tmp_dCp);
  (void) __builtin_ia32_storeupd(tmp_dp, tmp_V2d);
  tmp_V2d = __builtin_ia32_loadhpd(tmp_V2d, tmp_dCp);
  tmp_V2d = __builtin_ia32_loadlpd(tmp_V2d, tmp_dCp);
  tmp_i = __builtin_ia32_movmskpd(tmp_V2d);
  tmp_i = __builtin_ia32_pmovmskb128(tmp_V16c);
  (void) __builtin_ia32_movnti(tmp_ip, tmp_i);
  (void) __builtin_ia32_movntpd(tmp_dp, tmp_V2d);
  (void) __builtin_ia32_movntdq(tmp_V2LLip, tmp_V2LLi);
  tmp_V4i = __builtin_ia32_pshufd(tmp_V4i, imm_i);
  tmp_V8s = __builtin_ia32_pshuflw(tmp_V8s, imm_i);
  tmp_V8s = __builtin_ia32_pshufhw(tmp_V8s, imm_i);
  tmp_V2LLi = __builtin_ia32_psadbw128(tmp_V16c, tmp_V16c);
  tmp_V2d = __builtin_ia32_sqrtpd(tmp_V2d);
  tmp_V2d = __builtin_ia32_sqrtsd(tmp_V2d);
  tmp_V2d = __builtin_ia32_shufpd(tmp_V2d, tmp_V2d, imm_i);
  tmp_V2d = __builtin_ia32_cvtdq2pd(tmp_V4i);
  tmp_V4f = __builtin_ia32_cvtdq2ps(tmp_V4i);
  tmp_V2LLi = __builtin_ia32_cvtpd2dq(tmp_V2d);
  tmp_V2i = __builtin_ia32_cvtpd2pi(tmp_V2d);
  tmp_V4f = __builtin_ia32_cvtpd2ps(tmp_V2d);
  tmp_V4i = __builtin_ia32_cvttpd2dq(tmp_V2d);
  tmp_V2i = __builtin_ia32_cvttpd2pi(tmp_V2d);
  tmp_V2d = __builtin_ia32_cvtpi2pd(tmp_V2i);
  tmp_i = __builtin_ia32_cvtsd2si(tmp_V2d);
  tmp_i = __builtin_ia32_cvttsd2si(tmp_V2d);
#ifdef USE_64
  tmp_LLi = __builtin_ia32_cvtsd2si64(tmp_V2d);
  tmp_LLi = __builtin_ia32_cvttsd2si64(tmp_V2d);
#endif
  tmp_V4i = __builtin_ia32_cvtps2dq(tmp_V4f);
  tmp_V2d = __builtin_ia32_cvtps2pd(tmp_V4f);
  tmp_V4i = __builtin_ia32_cvttps2dq(tmp_V4f);
  tmp_V2d = __builtin_ia32_cvtsi2sd(tmp_V2d, tmp_i);
#ifdef USE_64
  tmp_V2d = __builtin_ia32_cvtsi642sd(tmp_V2d, tmp_LLi);
#endif
  tmp_V4f = __builtin_ia32_cvtsd2ss(tmp_V4f, tmp_V2d);
  tmp_V2d = __builtin_ia32_cvtss2sd(tmp_V2d, tmp_V4f);
  (void) __builtin_ia32_clflush(tmp_vCp);
  (void) __builtin_ia32_lfence();
  (void) __builtin_ia32_mfence();
  tmp_V16c = __builtin_ia32_loaddqu(tmp_cCp);
  (void) __builtin_ia32_storedqu(tmp_cp, tmp_V16c);
  tmp_V4s = __builtin_ia32_psllwi(tmp_V4s, tmp_i);
  tmp_V2i = __builtin_ia32_pslldi(tmp_V2i, tmp_i);
  tmp_V1LLi = __builtin_ia32_psllqi(tmp_V1LLi, tmp_i);
  tmp_V4s = __builtin_ia32_psrawi(tmp_V4s, tmp_i);
  tmp_V2i = __builtin_ia32_psradi(tmp_V2i, tmp_i);
  tmp_V4s = __builtin_ia32_psrlwi(tmp_V4s, tmp_i);
  tmp_V2i = __builtin_ia32_psrldi(tmp_V2i, tmp_i);
  tmp_V1LLi = __builtin_ia32_psrlqi(tmp_V1LLi, tmp_i);
  tmp_V1LLi = __builtin_ia32_pmuludq(tmp_V2i, tmp_V2i);
  tmp_V2LLi = __builtin_ia32_pmuludq128(tmp_V4i, tmp_V4i);
  tmp_V8s = __builtin_ia32_psraw128(tmp_V8s, tmp_V8s);
  tmp_V4i = __builtin_ia32_psrad128(tmp_V4i, tmp_V4i);
  tmp_V8s = __builtin_ia32_psrlw128(tmp_V8s, tmp_V8s);
  tmp_V4i = __builtin_ia32_psrld128(tmp_V4i, tmp_V4i);
  tmp_V2LLi = __builtin_ia32_psrlq128(tmp_V2LLi, tmp_V2LLi);
  tmp_V8s = __builtin_ia32_psllw128(tmp_V8s, tmp_V8s);
  tmp_V4i = __builtin_ia32_pslld128(tmp_V4i, tmp_V4i);
  tmp_V2LLi = __builtin_ia32_psllq128(tmp_V2LLi, tmp_V2LLi);
  tmp_V8s = __builtin_ia32_psllwi128(tmp_V8s, tmp_i);
  tmp_V4i = __builtin_ia32_pslldi128(tmp_V4i, tmp_i);
  tmp_V2LLi = __builtin_ia32_psllqi128(tmp_V2LLi, tmp_i);
  tmp_V8s = __builtin_ia32_psrlwi128(tmp_V8s, tmp_i);
  tmp_V4i = __builtin_ia32_psrldi128(tmp_V4i, tmp_i);
  tmp_V2LLi = __builtin_ia32_psrlqi128(tmp_V2LLi, tmp_i);
  tmp_V8s = __builtin_ia32_psrawi128(tmp_V8s, tmp_i);
  tmp_V4i = __builtin_ia32_psradi128(tmp_V4i, tmp_i);
  tmp_V8s = __builtin_ia32_pmaddwd128(tmp_V8s, tmp_V8s);
  (void) __builtin_ia32_monitor(tmp_vp, tmp_Ui, tmp_Ui);
  (void) __builtin_ia32_mwait(tmp_Ui, tmp_Ui);
#ifdef USE_ALL
  tmp_V4f = __builtin_ia32_movshdup(tmp_V4f);
  tmp_V4f = __builtin_ia32_movsldup(tmp_V4f);
#endif
  tmp_V16c = __builtin_ia32_lddqu(tmp_cCp);
  tmp_V2LLi = __builtin_ia32_palignr128(tmp_V2LLi, tmp_V2LLi, imm_i);
  tmp_V1LLi = __builtin_ia32_palignr(tmp_V1LLi, tmp_V1LLi, imm_i);
  tmp_V2i = __builtin_ia32_vec_init_v2si(tmp_i, tmp_i);
  tmp_V4s = __builtin_ia32_vec_init_v4hi(tmp_s, tmp_s, tmp_s, tmp_s);
  tmp_V8c = __builtin_ia32_vec_init_v8qi(tmp_c, tmp_c, tmp_c, tmp_c, tmp_c, tmp_c, tmp_c, tmp_c);
  tmp_d = __builtin_ia32_vec_ext_v2df(tmp_V2d, imm_i_0_2);
  tmp_LLi = __builtin_ia32_vec_ext_v2di(tmp_V2LLi, imm_i_0_2);
  tmp_f = __builtin_ia32_vec_ext_v4sf(tmp_V4f, imm_i_0_4);
  tmp_i = __builtin_ia32_vec_ext_v4si(tmp_V4i, imm_i_0_4);
#ifdef USE_ALL
  tmp_Us = __builtin_ia32_vec_ext_v8hi(tmp_V8s, imm_i_0_8);
  tmp_s = __builtin_ia32_vec_ext_v4hi(tmp_V4s, imm_i_0_4);
#endif
  tmp_i = __builtin_ia32_vec_ext_v2si(tmp_V2i, imm_i_0_2);
  tmp_V8s = __builtin_ia32_vec_set_v8hi(tmp_V8s, tmp_s, imm_i_0_8);
  tmp_V4s = __builtin_ia32_vec_set_v4hi(tmp_V4s, tmp_s, imm_i_0_4);
  tmp_V4i = __builtin_ia32_loadlv4si(tmp_V2ip);
  (void) __builtin_ia32_storelv4si(tmp_V2ip, tmp_V2LLi);
#ifdef USE_SSE4
  tmp_V16c = __builtin_ia32_pblendvb128(tmp_V16c, tmp_V16c, tmp_V16c);
  tmp_V8s = __builtin_ia32_pblendw128(tmp_V8s, tmp_V8s, imm_i_0_256);
  tmp_V2d = __builtin_ia32_blendpd(tmp_V2d, tmp_V2d, imm_i_0_256);
  tmp_V4f = __builtin_ia32_blendps(tmp_V4f, tmp_V4f, imm_i_0_256);
  tmp_V2d = __builtin_ia32_blendvpd(tmp_V2d, tmp_V2d, tmp_V2d);
  tmp_V4f = __builtin_ia32_blendvps(tmp_V4f, tmp_V4f, tmp_V4f);
  tmp_V8s = __builtin_ia32_packusdw128(tmp_V4i, tmp_V4i);
  tmp_V16c = __builtin_ia32_pmaxsb128(tmp_V16c, tmp_V16c);
  tmp_V4i = __builtin_ia32_pmaxsd128(tmp_V4i, tmp_V4i);
  tmp_V4i = __builtin_ia32_pmaxud128(tmp_V4i, tmp_V4i);
  tmp_V8s = __builtin_ia32_pmaxuw128(tmp_V8s, tmp_V8s);
  tmp_V16c = __builtin_ia32_pminsb128(tmp_V16c, tmp_V16c);
  tmp_V4i = __builtin_ia32_pminsd128(tmp_V4i, tmp_V4i);
  tmp_V4i = __builtin_ia32_pminud128(tmp_V4i, tmp_V4i);
  tmp_V8s = __builtin_ia32_pminuw128(tmp_V8s, tmp_V8s);
  tmp_V4i = __builtin_ia32_pmovsxbd128(tmp_V16c);
  tmp_V2LLi = __builtin_ia32_pmovsxbq128(tmp_V16c);
  tmp_V8s = __builtin_ia32_pmovsxbw128(tmp_V16c);
  tmp_V2LLi = __builtin_ia32_pmovsxdq128(tmp_V4i);
  tmp_V4i = __builtin_ia32_pmovsxwd128(tmp_V8s);
  tmp_V2LLi = __builtin_ia32_pmovsxwq128(tmp_V8s);
  tmp_V4i = __builtin_ia32_pmovzxbd128(tmp_V16c);
  tmp_V2LLi = __builtin_ia32_pmovzxbq128(tmp_V16c);
  tmp_V8s = __builtin_ia32_pmovzxbw128(tmp_V16c);
  tmp_V2LLi = __builtin_ia32_pmovzxdq128(tmp_V4i);
  tmp_V4i = __builtin_ia32_pmovzxwd128(tmp_V8s);
  tmp_V2LLi = __builtin_ia32_pmovzxwq128(tmp_V8s);
  tmp_V2LLi = __builtin_ia32_pmuldq128(tmp_V4i, tmp_V4i);
  tmp_V4i = __builtin_ia32_pmulld128(tmp_V4i, tmp_V4i);
  tmp_V4f = __builtin_ia32_roundps(tmp_V4f, imm_i_0_16);
  //  tmp_V4f = __builtin_ia32_roundss(tmp_V4f, tmp_V4f, imm_i_0_16);
  //  tmp_V2d = __builtin_ia32_roundsd(tmp_V2d, tmp_V2d, imm_i_0_16);
  tmp_V2d = __builtin_ia32_roundpd(tmp_V2d, imm_i_0_16);
  tmp_V16c = __builtin_ia32_vec_set_v16qi(tmp_V16c, tmp_i, tmp_i);
  tmp_V4i  = __builtin_ia32_vec_set_v4si(tmp_V4i, tmp_i, tmp_i);
  tmp_V4f = __builtin_ia32_insertps128(tmp_V4f, tmp_V4f, tmp_i);
  tmp_V2LLi = __builtin_ia32_vec_set_v2di(tmp_V2LLi, tmp_LLi, tmp_i);
#endif
}
Exemple #6
0
double
mfp_block_prefix_sum(mfp_block * in, mfp_sample scale, mfp_sample initval, mfp_block * out)
{
    if (mfp_block_use_sse && mfp_block_compiled_with_sse) { 
#ifdef MFP_USE_SSE
        float * inptr, * outptr, * endptr;
        fv4 scratch = { 0.0, 0.0, 0.0, 0.0 };
        __v4sf xmm0, xmm1, xmm2;
        __v4sf zeros = (__v4sf) { 0.0, 0.0, 0.0, 0.0 };
        __v4si mask = (__v4si) { 0x00, 0xffffffff, 0xffffffff, 0xffffffff }; 
        __v4sf scaler = { scale, scale, scale, scale };

        endptr = in->data + in->blocksize;
        outptr = out->data;
        scratch[0] = initval;

        /* xmm1 gets carry in */
        xmm1 = *(__v4sf *)scratch;

        for(inptr = in->data; inptr < endptr; inptr += 4) {
            /* xmm0 gets A+I, B, C, D */
            xmm0 = *(__v4sf *)inptr;
            xmm0 = __builtin_ia32_mulps(xmm0, scaler);
            xmm0 = __builtin_ia32_addss(xmm0, xmm1);

            /* xmm2 gets 0, A+I, B, C */
            xmm2 = xmm0;
            xmm2 = __builtin_ia32_shufps(xmm2, xmm2, 0x60);
            xmm2 = __builtin_ia32_andps(xmm2, (__v4sf)mask);

            /* xmm2 gets A+I, A+B+I, B+C, C+D */
            xmm2 = __builtin_ia32_addps(xmm2, xmm0);

            /* xmm0 gets 0, 0, A+I, A+B+I */
            xmm0 = zeros;
            xmm0 = __builtin_ia32_shufps(xmm0, xmm2, 0x40);

            /* xmm0 gets A+I, A+B+I, A+B+C+I, A+B+C+D+I */
            xmm0 = __builtin_ia32_addps(xmm0, xmm2);

            /* preparing for next iteration, xmm1 gets carry */
            xmm1 = xmm0;
            xmm1 = __builtin_ia32_shufps(xmm1, xmm1, 0xff);

            *(__v4sf *)outptr = xmm0;

            outptr += 4;
        }
        *(__v4sf *)&scratch = xmm1;
        return scratch[0];
#endif
    }
    else {
        mfp_sample * iptr, * optr, * iend, accum=initval;
        iptr = in->data;
        iend = in->data + in->blocksize;
        optr = out->data;
        for(; iptr < iend; iptr++) {
            accum += *iptr * scale;
            *optr = accum; 
            optr++;
        }
        return accum;
    }
}
Exemple #7
0
void dpa_add(dpa_t * dpa, uint8_t * trace_data, uint8_t * hypos_data)
{
#ifdef SSE
	v4sf *sum_cross = (v4sf *) dpa->sum_cross;
	v4sf *delta_x;
	union f4vec delta_y_vec __attribute__ ((aligned(16)));;
#else
	correl_t *sum_cross = dpa->sum_cross;
	correl_t *delta_x;
#endif
	correl_t *sum_ysq = dpa->sum_ysq;
	correl_t *mean_y = dpa->mean_y;
	correl_t delta_y;
	correl_t num = dpa->traces + 1.0;
	correl_t ratio = dpa->traces / num;
	uint32_t tracepos, hypo;

	if (!(dpa->traces))
		return dpa_first_trace(dpa, trace_data, hypos_data);

	dpa_add_hypotheses(dpa, hypos_data);

	for (tracepos = 0; tracepos < dpa->tracelen; tracepos++) {

		delta_y = (correl_t) * (trace_data++) - (*mean_y);
		*(mean_y++) += delta_y / num;
		*(sum_ysq++) += delta_y * delta_y * ratio;

		delta_y *= ratio;

#ifdef SSE
		// reset delta_x ptr (1 delta_x per hypothesis)
		delta_x = (v4sf *) dpa->delta_x;
		delta_y_vec.f[0] = delta_y_vec.f[1] = delta_y_vec.f[2] =
		    delta_y_vec.f[3] = delta_y;

		for (hypo = 0; hypo < dpa->hypo_cnt; hypo += 4) {
			*sum_cross =
			    __builtin_ia32_addps(*sum_cross,
						 __builtin_ia32_mulps(*
								      (delta_x++),
								      delta_y_vec.
								      v));
			sum_cross++;
#else
		// reset delta_x ptr (1 delta_x per hypothesis)
		delta_x = dpa->delta_x;

		for (hypo = 0; hypo < dpa->hypo_cnt; hypo++) {
			*(sum_cross++) += *(delta_x++) * delta_y;
#endif
		}		// calc sum_cross for all hypotheses
	}			// foreach tracepo

	dpa->traces++;
}

void dpa_get_results(dpa_t * dpa, uint32_t hypo, correl_t * results, float *max)
{
	correl_t *sum_cross = dpa->sum_cross + hypo;
	correl_t *sum_ysq = dpa->sum_ysq;
	correl_t sqrt_sumx = sqrt(dpa->sum_xsq[hypo]);
	uint32_t hypo_cnt = dpa->hypo_cnt_fake;
	uint32_t tracepos;
	float max_val = 0;

	for (tracepos = 0; tracepos < dpa->tracelen; tracepos++) {
		float res = (*sum_cross) / (sqrt_sumx * sqrt(*(sum_ysq++)));
		*(results++) = res;
		if (ABS(res) > ABS(max_val))
			max_val = res;
		sum_cross += hypo_cnt;
	}

	if (max)
		*max = max_val;

}
Exemple #8
0
void Convolver::_multiply_partition_simd(const float *signal,
		const float* filter)
{

	//  f4vector2 tmp1, tmp2;//, tmp3;
	f4vector2 sigr, sigi, filtr, filti, out;
	// f4vector signalr, filterr;
	// f4vector signali, filteri;

	//  f4vector outputr, outputi;

	float dc = _ifft_buffer[0] + signal[0] * filter[0];
	float ny = _ifft_buffer[4] + signal[4] * filter[4];

	for (unsigned int i = 0u; i < _partition_size; i += 8)
	{
		// real parts
		//signalr.f = signal + i;
		//filterr.f = filter + i;
		//outputr.f = _ifft_buffer.data() + i;
		sigr.v = __builtin_ia32_loadups(signal + i);
		filtr.v = __builtin_ia32_loadups(filter + i);

		// imag
		//signalr.f = signal + i + 4;
		//filterr.f = filter + i + 4;
		//outputi.f = _ifft_buffer.data() + i + 4;
		sigi.v = __builtin_ia32_loadups(signal + i + 4);
		filti.v = __builtin_ia32_loadups(filter + i + 4);

		//tmp1.v = __builtin_ia32_mulps(*signalr.v, *filterr.v);
		//tmp2.v = __builtin_ia32_mulps(*signali.v, *filteri.v);

		//tmp1.v = __builtin_ia32_mulps(sigr.v, filtr.v);
		//tmp2.v = __builtin_ia32_mulps(sigi.v, filti.v);

		//*(outputr.v) += __builtin_ia32_subps(tmp1.v, tmp2.v);
		//out.v = __builtin_ia32_subps(tmp1.v, tmp2.v);
		out.v = __builtin_ia32_subps(__builtin_ia32_mulps(sigr.v, filtr.v),
				__builtin_ia32_mulps(sigi.v, filti.v));

		_ifft_buffer[0 + i] += out.f[0];
		_ifft_buffer[1 + i] += out.f[1];
		_ifft_buffer[2 + i] += out.f[2];
		_ifft_buffer[3 + i] += out.f[3];

		//tmp3.v = __builtin_ia32_subps(tmp1.v, tmp2.v);
		//__builtin_ia32_storeups(outputr.f, tmp3.v);

		//tmp1.v = __builtin_ia32_mulps(*signalr.v, *filteri.v);
		//tmp2.v = __builtin_ia32_mulps(*signali.v, *filterr.v);

		//tmp1.v = __builtin_ia32_mulps(sigr.v, filti.v);
		//tmp2.v = __builtin_ia32_mulps(sigi.v, filtr.v);

		//*(outputi.v) += __builtin_ia32_addps(tmp1.v, tmp2.v);
		//out.v = __builtin_ia32_addps(tmp1.v, tmp2.v);
		out.v = __builtin_ia32_addps(__builtin_ia32_mulps(sigr.v, filti.v),
				__builtin_ia32_mulps(sigi.v, filtr.v));

		//tmp3.v = __builtin_ia32_addps(tmp1.v, tmp2.v);
		//__builtin_ia32_storeups(outputi.f, tmp3.v);

		_ifft_buffer[4 + i] += out.f[0];
		_ifft_buffer[5 + i] += out.f[1];
		_ifft_buffer[6 + i] += out.f[2];
		_ifft_buffer[7 + i] += out.f[3];

	}

	_ifft_buffer[0] = dc;
	_ifft_buffer[4] = ny;

}
Exemple #9
0
void ldraw_maths_vector_Add (LdrawMathsVector *self, LdrawMathsVector* v, LdrawMathsVector* result) {
	v4sf self_vals = self->values;
	v4sf v_vals = v->values;
	result->values = __builtin_ia32_addps(self_vals, v_vals);
	return;
}
Exemple #10
0
void addps(float * arg1,float * arg2,float * retval) {
    v4sf x = __builtin_ia32_loadups(arg1);
    v4sf y = __builtin_ia32_loadups(arg2);
    __builtin_ia32_storeups(retval,__builtin_ia32_addps(x,y));
}
int main()
{
  union f4vector a, b, c;

  a.f[0] = 1.1; a.f[1] =  2; a.f[2] = 3;  a.f[3] = 4.0;
  b.f[0] = 5.0; b.f[1] =  6; b.f[2] = 7;  b.f[3] = 8.0;
  c.f[0] = 9.1; c.f[1] = 10; c.f[2] = 11; c.f[3] = 12.3;

  v4sf tmp = __builtin_ia32_mulps (a.v, b.v);
  v4sf foo = __builtin_ia32_addps(tmp, c.v);

  std::cout << "calculate foo = (a * b) + c:\n";
  std::cout << "a   = "; printf4vector(&a.v);
  std::cout << "b   = "; printf4vector(&b.v);
  std::cout << "c   = "; printf4vector(&c.v);
  std::cout << "foo = "; printf4vector(&foo);

  v4si A ={1,2,3,4};
  v4si B ={5,6,7,8};
  v4si C;

  std::cout << "A     : "; printi4vector(&A);
  std::cout << "B     : "; printi4vector(&B);

  C = A + B;
  std::cout << "C=A+B : "; printi4vector(&C);
  C = A - B;
  std::cout << "C=A-B : "; printi4vector(&C);
  C = B - A;
  std::cout << "C=B-A : "; printi4vector(&C);
  C = A * B;
  std::cout << "C=A*B : "; printi4vector(&C);
  C = B / A;
  std::cout << "C=B/A : "; printi4vector(&C);
  C = A / B;
  std::cout << "C=A/B : "; printi4vector(&C);

  v4sf fA ={1,2,3,4.5};
  v4sf fB ={5,6,7,8.5};
  v4sf fC;

  std::cout << "fA       : "; printf4vector(&fA);
  std::cout << "fB       : "; printf4vector(&fB);

  fC = fA + fB;
  std::cout << "fC=fA+fB : "; printf4vector(&fC);
  fC = fA - fB;
  std::cout << "fC=fA-fB : "; printf4vector(&fC);
  fC = fB - fA;
  std::cout << "fC=fB-fA : "; printf4vector(&fC);
  fC = fA * fB;
  std::cout << "fC=fA*fB : "; printf4vector(&fC);
  fC = fA * fA;
  std::cout << "fC=fA*fA : "; printf4vector(&fC);
  fC = fB * fB;
  std::cout << "fC=fB*fB : "; printf4vector(&fC);
  fC = fA / fB;
  std::cout << "fC=fA/fB : "; printf4vector(&fC);
  fC = fB / fA;
  std::cout << "fC=fB/fA : "; printf4vector(&fC);

  /* ... */
  extern void vectorcode();
  vectorcode(); // seems to execute --- no segfault.  How about that?
}