Add saturating arithmetic conversion functions for subsequent instructions.
[qemu] / target-ppc / op_helper.c
1 /*
2  *  PowerPC emulation helpers for qemu.
3  *
4  *  Copyright (c) 2003-2007 Jocelyn Mayer
5  *
6  * This library is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU Lesser General Public
8  * License as published by the Free Software Foundation; either
9  * version 2 of the License, or (at your option) any later version.
10  *
11  * This library is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * Lesser General Public License for more details.
15  *
16  * You should have received a copy of the GNU Lesser General Public
17  * License along with this library; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston MA  02110-1301 USA
19  */
20 #include <string.h>
21 #include "exec.h"
22 #include "host-utils.h"
23 #include "helper.h"
24
25 #include "helper_regs.h"
26
27 //#define DEBUG_OP
28 //#define DEBUG_EXCEPTIONS
29 //#define DEBUG_SOFTWARE_TLB
30
31 /*****************************************************************************/
32 /* Exceptions processing helpers */
33
34 void helper_raise_exception_err (uint32_t exception, uint32_t error_code)
35 {
36 #if 0
37     printf("Raise exception %3x code : %d\n", exception, error_code);
38 #endif
39     env->exception_index = exception;
40     env->error_code = error_code;
41     cpu_loop_exit();
42 }
43
44 void helper_raise_exception (uint32_t exception)
45 {
46     helper_raise_exception_err(exception, 0);
47 }
48
49 /*****************************************************************************/
50 /* Registers load and stores */
51 target_ulong helper_load_cr (void)
52 {
53     return (env->crf[0] << 28) |
54            (env->crf[1] << 24) |
55            (env->crf[2] << 20) |
56            (env->crf[3] << 16) |
57            (env->crf[4] << 12) |
58            (env->crf[5] << 8) |
59            (env->crf[6] << 4) |
60            (env->crf[7] << 0);
61 }
62
63 void helper_store_cr (target_ulong val, uint32_t mask)
64 {
65     int i, sh;
66
67     for (i = 0, sh = 7; i < 8; i++, sh--) {
68         if (mask & (1 << sh))
69             env->crf[i] = (val >> (sh * 4)) & 0xFUL;
70     }
71 }
72
73 /*****************************************************************************/
74 /* SPR accesses */
75 void helper_load_dump_spr (uint32_t sprn)
76 {
77     if (loglevel != 0) {
78         fprintf(logfile, "Read SPR %d %03x => " ADDRX "\n",
79                 sprn, sprn, env->spr[sprn]);
80     }
81 }
82
83 void helper_store_dump_spr (uint32_t sprn)
84 {
85     if (loglevel != 0) {
86         fprintf(logfile, "Write SPR %d %03x <= " ADDRX "\n",
87                 sprn, sprn, env->spr[sprn]);
88     }
89 }
90
91 target_ulong helper_load_tbl (void)
92 {
93     return cpu_ppc_load_tbl(env);
94 }
95
96 target_ulong helper_load_tbu (void)
97 {
98     return cpu_ppc_load_tbu(env);
99 }
100
101 target_ulong helper_load_atbl (void)
102 {
103     return cpu_ppc_load_atbl(env);
104 }
105
106 target_ulong helper_load_atbu (void)
107 {
108     return cpu_ppc_load_atbu(env);
109 }
110
111 target_ulong helper_load_601_rtcl (void)
112 {
113     return cpu_ppc601_load_rtcl(env);
114 }
115
116 target_ulong helper_load_601_rtcu (void)
117 {
118     return cpu_ppc601_load_rtcu(env);
119 }
120
121 #if !defined(CONFIG_USER_ONLY)
122 #if defined (TARGET_PPC64)
123 void helper_store_asr (target_ulong val)
124 {
125     ppc_store_asr(env, val);
126 }
127 #endif
128
129 void helper_store_sdr1 (target_ulong val)
130 {
131     ppc_store_sdr1(env, val);
132 }
133
134 void helper_store_tbl (target_ulong val)
135 {
136     cpu_ppc_store_tbl(env, val);
137 }
138
139 void helper_store_tbu (target_ulong val)
140 {
141     cpu_ppc_store_tbu(env, val);
142 }
143
144 void helper_store_atbl (target_ulong val)
145 {
146     cpu_ppc_store_atbl(env, val);
147 }
148
149 void helper_store_atbu (target_ulong val)
150 {
151     cpu_ppc_store_atbu(env, val);
152 }
153
154 void helper_store_601_rtcl (target_ulong val)
155 {
156     cpu_ppc601_store_rtcl(env, val);
157 }
158
159 void helper_store_601_rtcu (target_ulong val)
160 {
161     cpu_ppc601_store_rtcu(env, val);
162 }
163
164 target_ulong helper_load_decr (void)
165 {
166     return cpu_ppc_load_decr(env);
167 }
168
169 void helper_store_decr (target_ulong val)
170 {
171     cpu_ppc_store_decr(env, val);
172 }
173
174 void helper_store_hid0_601 (target_ulong val)
175 {
176     target_ulong hid0;
177
178     hid0 = env->spr[SPR_HID0];
179     if ((val ^ hid0) & 0x00000008) {
180         /* Change current endianness */
181         env->hflags &= ~(1 << MSR_LE);
182         env->hflags_nmsr &= ~(1 << MSR_LE);
183         env->hflags_nmsr |= (1 << MSR_LE) & (((val >> 3) & 1) << MSR_LE);
184         env->hflags |= env->hflags_nmsr;
185         if (loglevel != 0) {
186             fprintf(logfile, "%s: set endianness to %c => " ADDRX "\n",
187                     __func__, val & 0x8 ? 'l' : 'b', env->hflags);
188         }
189     }
190     env->spr[SPR_HID0] = (uint32_t)val;
191 }
192
193 void helper_store_403_pbr (uint32_t num, target_ulong value)
194 {
195     if (likely(env->pb[num] != value)) {
196         env->pb[num] = value;
197         /* Should be optimized */
198         tlb_flush(env, 1);
199     }
200 }
201
202 target_ulong helper_load_40x_pit (void)
203 {
204     return load_40x_pit(env);
205 }
206
207 void helper_store_40x_pit (target_ulong val)
208 {
209     store_40x_pit(env, val);
210 }
211
212 void helper_store_40x_dbcr0 (target_ulong val)
213 {
214     store_40x_dbcr0(env, val);
215 }
216
217 void helper_store_40x_sler (target_ulong val)
218 {
219     store_40x_sler(env, val);
220 }
221
222 void helper_store_booke_tcr (target_ulong val)
223 {
224     store_booke_tcr(env, val);
225 }
226
227 void helper_store_booke_tsr (target_ulong val)
228 {
229     store_booke_tsr(env, val);
230 }
231
232 void helper_store_ibatu (uint32_t nr, target_ulong val)
233 {
234     ppc_store_ibatu(env, nr, val);
235 }
236
237 void helper_store_ibatl (uint32_t nr, target_ulong val)
238 {
239     ppc_store_ibatl(env, nr, val);
240 }
241
242 void helper_store_dbatu (uint32_t nr, target_ulong val)
243 {
244     ppc_store_dbatu(env, nr, val);
245 }
246
247 void helper_store_dbatl (uint32_t nr, target_ulong val)
248 {
249     ppc_store_dbatl(env, nr, val);
250 }
251
252 void helper_store_601_batl (uint32_t nr, target_ulong val)
253 {
254     ppc_store_ibatl_601(env, nr, val);
255 }
256
257 void helper_store_601_batu (uint32_t nr, target_ulong val)
258 {
259     ppc_store_ibatu_601(env, nr, val);
260 }
261 #endif
262
263 /*****************************************************************************/
264 /* Memory load and stores */
265
266 static always_inline target_ulong addr_add(target_ulong addr, target_long arg)
267 {
268 #if defined(TARGET_PPC64)
269         if (!msr_sf)
270             return (uint32_t)(addr + arg);
271         else
272 #endif
273             return addr + arg;
274 }
275
276 void helper_lmw (target_ulong addr, uint32_t reg)
277 {
278     for (; reg < 32; reg++) {
279         if (msr_le)
280             env->gpr[reg] = bswap32(ldl(addr));
281         else
282             env->gpr[reg] = ldl(addr);
283         addr = addr_add(addr, 4);
284     }
285 }
286
287 void helper_stmw (target_ulong addr, uint32_t reg)
288 {
289     for (; reg < 32; reg++) {
290         if (msr_le)
291             stl(addr, bswap32((uint32_t)env->gpr[reg]));
292         else
293             stl(addr, (uint32_t)env->gpr[reg]);
294         addr = addr_add(addr, 4);
295     }
296 }
297
298 void helper_lsw(target_ulong addr, uint32_t nb, uint32_t reg)
299 {
300     int sh;
301     for (; nb > 3; nb -= 4) {
302         env->gpr[reg] = ldl(addr);
303         reg = (reg + 1) % 32;
304         addr = addr_add(addr, 4);
305     }
306     if (unlikely(nb > 0)) {
307         env->gpr[reg] = 0;
308         for (sh = 24; nb > 0; nb--, sh -= 8) {
309             env->gpr[reg] |= ldub(addr) << sh;
310             addr = addr_add(addr, 1);
311         }
312     }
313 }
314 /* PPC32 specification says we must generate an exception if
315  * rA is in the range of registers to be loaded.
316  * In an other hand, IBM says this is valid, but rA won't be loaded.
317  * For now, I'll follow the spec...
318  */
319 void helper_lswx(target_ulong addr, uint32_t reg, uint32_t ra, uint32_t rb)
320 {
321     if (likely(xer_bc != 0)) {
322         if (unlikely((ra != 0 && reg < ra && (reg + xer_bc) > ra) ||
323                      (reg < rb && (reg + xer_bc) > rb))) {
324             helper_raise_exception_err(POWERPC_EXCP_PROGRAM,
325                                        POWERPC_EXCP_INVAL |
326                                        POWERPC_EXCP_INVAL_LSWX);
327         } else {
328             helper_lsw(addr, xer_bc, reg);
329         }
330     }
331 }
332
333 void helper_stsw(target_ulong addr, uint32_t nb, uint32_t reg)
334 {
335     int sh;
336     for (; nb > 3; nb -= 4) {
337         stl(addr, env->gpr[reg]);
338         reg = (reg + 1) % 32;
339         addr = addr_add(addr, 4);
340     }
341     if (unlikely(nb > 0)) {
342         for (sh = 24; nb > 0; nb--, sh -= 8) {
343             stb(addr, (env->gpr[reg] >> sh) & 0xFF);
344             addr = addr_add(addr, 1);
345         }
346     }
347 }
348
349 static void do_dcbz(target_ulong addr, int dcache_line_size)
350 {
351     addr &= ~(dcache_line_size - 1);
352     int i;
353     for (i = 0 ; i < dcache_line_size ; i += 4) {
354         stl(addr + i , 0);
355     }
356     if (env->reserve == addr)
357         env->reserve = (target_ulong)-1ULL;
358 }
359
360 void helper_dcbz(target_ulong addr)
361 {
362     do_dcbz(addr, env->dcache_line_size);
363 }
364
365 void helper_dcbz_970(target_ulong addr)
366 {
367     if (((env->spr[SPR_970_HID5] >> 7) & 0x3) == 1)
368         do_dcbz(addr, 32);
369     else
370         do_dcbz(addr, env->dcache_line_size);
371 }
372
373 void helper_icbi(target_ulong addr)
374 {
375     uint32_t tmp;
376
377     addr &= ~(env->dcache_line_size - 1);
378     /* Invalidate one cache line :
379      * PowerPC specification says this is to be treated like a load
380      * (not a fetch) by the MMU. To be sure it will be so,
381      * do the load "by hand".
382      */
383     tmp = ldl(addr);
384     tb_invalidate_page_range(addr, addr + env->icache_line_size);
385 }
386
387 // XXX: to be tested
388 target_ulong helper_lscbx (target_ulong addr, uint32_t reg, uint32_t ra, uint32_t rb)
389 {
390     int i, c, d;
391     d = 24;
392     for (i = 0; i < xer_bc; i++) {
393         c = ldub(addr);
394         addr = addr_add(addr, 1);
395         /* ra (if not 0) and rb are never modified */
396         if (likely(reg != rb && (ra == 0 || reg != ra))) {
397             env->gpr[reg] = (env->gpr[reg] & ~(0xFF << d)) | (c << d);
398         }
399         if (unlikely(c == xer_cmp))
400             break;
401         if (likely(d != 0)) {
402             d -= 8;
403         } else {
404             d = 24;
405             reg++;
406             reg = reg & 0x1F;
407         }
408     }
409     return i;
410 }
411
412 /*****************************************************************************/
413 /* Fixed point operations helpers */
414 #if defined(TARGET_PPC64)
415
416 /* multiply high word */
417 uint64_t helper_mulhd (uint64_t arg1, uint64_t arg2)
418 {
419     uint64_t tl, th;
420
421     muls64(&tl, &th, arg1, arg2);
422     return th;
423 }
424
425 /* multiply high word unsigned */
426 uint64_t helper_mulhdu (uint64_t arg1, uint64_t arg2)
427 {
428     uint64_t tl, th;
429
430     mulu64(&tl, &th, arg1, arg2);
431     return th;
432 }
433
434 uint64_t helper_mulldo (uint64_t arg1, uint64_t arg2)
435 {
436     int64_t th;
437     uint64_t tl;
438
439     muls64(&tl, (uint64_t *)&th, arg1, arg2);
440     /* If th != 0 && th != -1, then we had an overflow */
441     if (likely((uint64_t)(th + 1) <= 1)) {
442         env->xer &= ~(1 << XER_OV);
443     } else {
444         env->xer |= (1 << XER_OV) | (1 << XER_SO);
445     }
446     return (int64_t)tl;
447 }
448 #endif
449
450 target_ulong helper_cntlzw (target_ulong t)
451 {
452     return clz32(t);
453 }
454
455 #if defined(TARGET_PPC64)
456 target_ulong helper_cntlzd (target_ulong t)
457 {
458     return clz64(t);
459 }
460 #endif
461
462 /* shift right arithmetic helper */
463 target_ulong helper_sraw (target_ulong value, target_ulong shift)
464 {
465     int32_t ret;
466
467     if (likely(!(shift & 0x20))) {
468         if (likely((uint32_t)shift != 0)) {
469             shift &= 0x1f;
470             ret = (int32_t)value >> shift;
471             if (likely(ret >= 0 || (value & ((1 << shift) - 1)) == 0)) {
472                 env->xer &= ~(1 << XER_CA);
473             } else {
474                 env->xer |= (1 << XER_CA);
475             }
476         } else {
477             ret = (int32_t)value;
478             env->xer &= ~(1 << XER_CA);
479         }
480     } else {
481         ret = (int32_t)value >> 31;
482         if (ret) {
483             env->xer |= (1 << XER_CA);
484         } else {
485             env->xer &= ~(1 << XER_CA);
486         }
487     }
488     return (target_long)ret;
489 }
490
491 #if defined(TARGET_PPC64)
492 target_ulong helper_srad (target_ulong value, target_ulong shift)
493 {
494     int64_t ret;
495
496     if (likely(!(shift & 0x40))) {
497         if (likely((uint64_t)shift != 0)) {
498             shift &= 0x3f;
499             ret = (int64_t)value >> shift;
500             if (likely(ret >= 0 || (value & ((1 << shift) - 1)) == 0)) {
501                 env->xer &= ~(1 << XER_CA);
502             } else {
503                 env->xer |= (1 << XER_CA);
504             }
505         } else {
506             ret = (int64_t)value;
507             env->xer &= ~(1 << XER_CA);
508         }
509     } else {
510         ret = (int64_t)value >> 63;
511         if (ret) {
512             env->xer |= (1 << XER_CA);
513         } else {
514             env->xer &= ~(1 << XER_CA);
515         }
516     }
517     return ret;
518 }
519 #endif
520
521 target_ulong helper_popcntb (target_ulong val)
522 {
523     val = (val & 0x55555555) + ((val >>  1) & 0x55555555);
524     val = (val & 0x33333333) + ((val >>  2) & 0x33333333);
525     val = (val & 0x0f0f0f0f) + ((val >>  4) & 0x0f0f0f0f);
526     return val;
527 }
528
529 #if defined(TARGET_PPC64)
530 target_ulong helper_popcntb_64 (target_ulong val)
531 {
532     val = (val & 0x5555555555555555ULL) + ((val >>  1) & 0x5555555555555555ULL);
533     val = (val & 0x3333333333333333ULL) + ((val >>  2) & 0x3333333333333333ULL);
534     val = (val & 0x0f0f0f0f0f0f0f0fULL) + ((val >>  4) & 0x0f0f0f0f0f0f0f0fULL);
535     return val;
536 }
537 #endif
538
539 /*****************************************************************************/
540 /* Floating point operations helpers */
541 uint64_t helper_float32_to_float64(uint32_t arg)
542 {
543     CPU_FloatU f;
544     CPU_DoubleU d;
545     f.l = arg;
546     d.d = float32_to_float64(f.f, &env->fp_status);
547     return d.ll;
548 }
549
550 uint32_t helper_float64_to_float32(uint64_t arg)
551 {
552     CPU_FloatU f;
553     CPU_DoubleU d;
554     d.ll = arg;
555     f.f = float64_to_float32(d.d, &env->fp_status);
556     return f.l;
557 }
558
559 static always_inline int isden (float64 d)
560 {
561     CPU_DoubleU u;
562
563     u.d = d;
564
565     return ((u.ll >> 52) & 0x7FF) == 0;
566 }
567
568 uint32_t helper_compute_fprf (uint64_t arg, uint32_t set_fprf)
569 {
570     CPU_DoubleU farg;
571     int isneg;
572     int ret;
573     farg.ll = arg;
574     isneg = float64_is_neg(farg.d);
575     if (unlikely(float64_is_nan(farg.d))) {
576         if (float64_is_signaling_nan(farg.d)) {
577             /* Signaling NaN: flags are undefined */
578             ret = 0x00;
579         } else {
580             /* Quiet NaN */
581             ret = 0x11;
582         }
583     } else if (unlikely(float64_is_infinity(farg.d))) {
584         /* +/- infinity */
585         if (isneg)
586             ret = 0x09;
587         else
588             ret = 0x05;
589     } else {
590         if (float64_is_zero(farg.d)) {
591             /* +/- zero */
592             if (isneg)
593                 ret = 0x12;
594             else
595                 ret = 0x02;
596         } else {
597             if (isden(farg.d)) {
598                 /* Denormalized numbers */
599                 ret = 0x10;
600             } else {
601                 /* Normalized numbers */
602                 ret = 0x00;
603             }
604             if (isneg) {
605                 ret |= 0x08;
606             } else {
607                 ret |= 0x04;
608             }
609         }
610     }
611     if (set_fprf) {
612         /* We update FPSCR_FPRF */
613         env->fpscr &= ~(0x1F << FPSCR_FPRF);
614         env->fpscr |= ret << FPSCR_FPRF;
615     }
616     /* We just need fpcc to update Rc1 */
617     return ret & 0xF;
618 }
619
620 /* Floating-point invalid operations exception */
621 static always_inline uint64_t fload_invalid_op_excp (int op)
622 {
623     uint64_t ret = 0;
624     int ve;
625
626     ve = fpscr_ve;
627     switch (op) {
628     case POWERPC_EXCP_FP_VXSNAN:
629         env->fpscr |= 1 << FPSCR_VXSNAN;
630         break;
631     case POWERPC_EXCP_FP_VXSOFT:
632         env->fpscr |= 1 << FPSCR_VXSOFT;
633         break;
634     case POWERPC_EXCP_FP_VXISI:
635         /* Magnitude subtraction of infinities */
636         env->fpscr |= 1 << FPSCR_VXISI;
637         goto update_arith;
638     case POWERPC_EXCP_FP_VXIDI:
639         /* Division of infinity by infinity */
640         env->fpscr |= 1 << FPSCR_VXIDI;
641         goto update_arith;
642     case POWERPC_EXCP_FP_VXZDZ:
643         /* Division of zero by zero */
644         env->fpscr |= 1 << FPSCR_VXZDZ;
645         goto update_arith;
646     case POWERPC_EXCP_FP_VXIMZ:
647         /* Multiplication of zero by infinity */
648         env->fpscr |= 1 << FPSCR_VXIMZ;
649         goto update_arith;
650     case POWERPC_EXCP_FP_VXVC:
651         /* Ordered comparison of NaN */
652         env->fpscr |= 1 << FPSCR_VXVC;
653         env->fpscr &= ~(0xF << FPSCR_FPCC);
654         env->fpscr |= 0x11 << FPSCR_FPCC;
655         /* We must update the target FPR before raising the exception */
656         if (ve != 0) {
657             env->exception_index = POWERPC_EXCP_PROGRAM;
658             env->error_code = POWERPC_EXCP_FP | POWERPC_EXCP_FP_VXVC;
659             /* Update the floating-point enabled exception summary */
660             env->fpscr |= 1 << FPSCR_FEX;
661             /* Exception is differed */
662             ve = 0;
663         }
664         break;
665     case POWERPC_EXCP_FP_VXSQRT:
666         /* Square root of a negative number */
667         env->fpscr |= 1 << FPSCR_VXSQRT;
668     update_arith:
669         env->fpscr &= ~((1 << FPSCR_FR) | (1 << FPSCR_FI));
670         if (ve == 0) {
671             /* Set the result to quiet NaN */
672             ret = 0xFFF8000000000000ULL;
673             env->fpscr &= ~(0xF << FPSCR_FPCC);
674             env->fpscr |= 0x11 << FPSCR_FPCC;
675         }
676         break;
677     case POWERPC_EXCP_FP_VXCVI:
678         /* Invalid conversion */
679         env->fpscr |= 1 << FPSCR_VXCVI;
680         env->fpscr &= ~((1 << FPSCR_FR) | (1 << FPSCR_FI));
681         if (ve == 0) {
682             /* Set the result to quiet NaN */
683             ret = 0xFFF8000000000000ULL;
684             env->fpscr &= ~(0xF << FPSCR_FPCC);
685             env->fpscr |= 0x11 << FPSCR_FPCC;
686         }
687         break;
688     }
689     /* Update the floating-point invalid operation summary */
690     env->fpscr |= 1 << FPSCR_VX;
691     /* Update the floating-point exception summary */
692     env->fpscr |= 1 << FPSCR_FX;
693     if (ve != 0) {
694         /* Update the floating-point enabled exception summary */
695         env->fpscr |= 1 << FPSCR_FEX;
696         if (msr_fe0 != 0 || msr_fe1 != 0)
697             helper_raise_exception_err(POWERPC_EXCP_PROGRAM, POWERPC_EXCP_FP | op);
698     }
699     return ret;
700 }
701
702 static always_inline void float_zero_divide_excp (void)
703 {
704     env->fpscr |= 1 << FPSCR_ZX;
705     env->fpscr &= ~((1 << FPSCR_FR) | (1 << FPSCR_FI));
706     /* Update the floating-point exception summary */
707     env->fpscr |= 1 << FPSCR_FX;
708     if (fpscr_ze != 0) {
709         /* Update the floating-point enabled exception summary */
710         env->fpscr |= 1 << FPSCR_FEX;
711         if (msr_fe0 != 0 || msr_fe1 != 0) {
712             helper_raise_exception_err(POWERPC_EXCP_PROGRAM,
713                                        POWERPC_EXCP_FP | POWERPC_EXCP_FP_ZX);
714         }
715     }
716 }
717
718 static always_inline void float_overflow_excp (void)
719 {
720     env->fpscr |= 1 << FPSCR_OX;
721     /* Update the floating-point exception summary */
722     env->fpscr |= 1 << FPSCR_FX;
723     if (fpscr_oe != 0) {
724         /* XXX: should adjust the result */
725         /* Update the floating-point enabled exception summary */
726         env->fpscr |= 1 << FPSCR_FEX;
727         /* We must update the target FPR before raising the exception */
728         env->exception_index = POWERPC_EXCP_PROGRAM;
729         env->error_code = POWERPC_EXCP_FP | POWERPC_EXCP_FP_OX;
730     } else {
731         env->fpscr |= 1 << FPSCR_XX;
732         env->fpscr |= 1 << FPSCR_FI;
733     }
734 }
735
736 static always_inline void float_underflow_excp (void)
737 {
738     env->fpscr |= 1 << FPSCR_UX;
739     /* Update the floating-point exception summary */
740     env->fpscr |= 1 << FPSCR_FX;
741     if (fpscr_ue != 0) {
742         /* XXX: should adjust the result */
743         /* Update the floating-point enabled exception summary */
744         env->fpscr |= 1 << FPSCR_FEX;
745         /* We must update the target FPR before raising the exception */
746         env->exception_index = POWERPC_EXCP_PROGRAM;
747         env->error_code = POWERPC_EXCP_FP | POWERPC_EXCP_FP_UX;
748     }
749 }
750
751 static always_inline void float_inexact_excp (void)
752 {
753     env->fpscr |= 1 << FPSCR_XX;
754     /* Update the floating-point exception summary */
755     env->fpscr |= 1 << FPSCR_FX;
756     if (fpscr_xe != 0) {
757         /* Update the floating-point enabled exception summary */
758         env->fpscr |= 1 << FPSCR_FEX;
759         /* We must update the target FPR before raising the exception */
760         env->exception_index = POWERPC_EXCP_PROGRAM;
761         env->error_code = POWERPC_EXCP_FP | POWERPC_EXCP_FP_XX;
762     }
763 }
764
765 static always_inline void fpscr_set_rounding_mode (void)
766 {
767     int rnd_type;
768
769     /* Set rounding mode */
770     switch (fpscr_rn) {
771     case 0:
772         /* Best approximation (round to nearest) */
773         rnd_type = float_round_nearest_even;
774         break;
775     case 1:
776         /* Smaller magnitude (round toward zero) */
777         rnd_type = float_round_to_zero;
778         break;
779     case 2:
780         /* Round toward +infinite */
781         rnd_type = float_round_up;
782         break;
783     default:
784     case 3:
785         /* Round toward -infinite */
786         rnd_type = float_round_down;
787         break;
788     }
789     set_float_rounding_mode(rnd_type, &env->fp_status);
790 }
791
792 void helper_fpscr_clrbit (uint32_t bit)
793 {
794     int prev;
795
796     prev = (env->fpscr >> bit) & 1;
797     env->fpscr &= ~(1 << bit);
798     if (prev == 1) {
799         switch (bit) {
800         case FPSCR_RN1:
801         case FPSCR_RN:
802             fpscr_set_rounding_mode();
803             break;
804         default:
805             break;
806         }
807     }
808 }
809
810 void helper_fpscr_setbit (uint32_t bit)
811 {
812     int prev;
813
814     prev = (env->fpscr >> bit) & 1;
815     env->fpscr |= 1 << bit;
816     if (prev == 0) {
817         switch (bit) {
818         case FPSCR_VX:
819             env->fpscr |= 1 << FPSCR_FX;
820             if (fpscr_ve)
821                 goto raise_ve;
822         case FPSCR_OX:
823             env->fpscr |= 1 << FPSCR_FX;
824             if (fpscr_oe)
825                 goto raise_oe;
826             break;
827         case FPSCR_UX:
828             env->fpscr |= 1 << FPSCR_FX;
829             if (fpscr_ue)
830                 goto raise_ue;
831             break;
832         case FPSCR_ZX:
833             env->fpscr |= 1 << FPSCR_FX;
834             if (fpscr_ze)
835                 goto raise_ze;
836             break;
837         case FPSCR_XX:
838             env->fpscr |= 1 << FPSCR_FX;
839             if (fpscr_xe)
840                 goto raise_xe;
841             break;
842         case FPSCR_VXSNAN:
843         case FPSCR_VXISI:
844         case FPSCR_VXIDI:
845         case FPSCR_VXZDZ:
846         case FPSCR_VXIMZ:
847         case FPSCR_VXVC:
848         case FPSCR_VXSOFT:
849         case FPSCR_VXSQRT:
850         case FPSCR_VXCVI:
851             env->fpscr |= 1 << FPSCR_VX;
852             env->fpscr |= 1 << FPSCR_FX;
853             if (fpscr_ve != 0)
854                 goto raise_ve;
855             break;
856         case FPSCR_VE:
857             if (fpscr_vx != 0) {
858             raise_ve:
859                 env->error_code = POWERPC_EXCP_FP;
860                 if (fpscr_vxsnan)
861                     env->error_code |= POWERPC_EXCP_FP_VXSNAN;
862                 if (fpscr_vxisi)
863                     env->error_code |= POWERPC_EXCP_FP_VXISI;
864                 if (fpscr_vxidi)
865                     env->error_code |= POWERPC_EXCP_FP_VXIDI;
866                 if (fpscr_vxzdz)
867                     env->error_code |= POWERPC_EXCP_FP_VXZDZ;
868                 if (fpscr_vximz)
869                     env->error_code |= POWERPC_EXCP_FP_VXIMZ;
870                 if (fpscr_vxvc)
871                     env->error_code |= POWERPC_EXCP_FP_VXVC;
872                 if (fpscr_vxsoft)
873                     env->error_code |= POWERPC_EXCP_FP_VXSOFT;
874                 if (fpscr_vxsqrt)
875                     env->error_code |= POWERPC_EXCP_FP_VXSQRT;
876                 if (fpscr_vxcvi)
877                     env->error_code |= POWERPC_EXCP_FP_VXCVI;
878                 goto raise_excp;
879             }
880             break;
881         case FPSCR_OE:
882             if (fpscr_ox != 0) {
883             raise_oe:
884                 env->error_code = POWERPC_EXCP_FP | POWERPC_EXCP_FP_OX;
885                 goto raise_excp;
886             }
887             break;
888         case FPSCR_UE:
889             if (fpscr_ux != 0) {
890             raise_ue:
891                 env->error_code = POWERPC_EXCP_FP | POWERPC_EXCP_FP_UX;
892                 goto raise_excp;
893             }
894             break;
895         case FPSCR_ZE:
896             if (fpscr_zx != 0) {
897             raise_ze:
898                 env->error_code = POWERPC_EXCP_FP | POWERPC_EXCP_FP_ZX;
899                 goto raise_excp;
900             }
901             break;
902         case FPSCR_XE:
903             if (fpscr_xx != 0) {
904             raise_xe:
905                 env->error_code = POWERPC_EXCP_FP | POWERPC_EXCP_FP_XX;
906                 goto raise_excp;
907             }
908             break;
909         case FPSCR_RN1:
910         case FPSCR_RN:
911             fpscr_set_rounding_mode();
912             break;
913         default:
914             break;
915         raise_excp:
916             /* Update the floating-point enabled exception summary */
917             env->fpscr |= 1 << FPSCR_FEX;
918                 /* We have to update Rc1 before raising the exception */
919             env->exception_index = POWERPC_EXCP_PROGRAM;
920             break;
921         }
922     }
923 }
924
925 void helper_store_fpscr (uint64_t arg, uint32_t mask)
926 {
927     /*
928      * We use only the 32 LSB of the incoming fpr
929      */
930     uint32_t prev, new;
931     int i;
932
933     prev = env->fpscr;
934     new = (uint32_t)arg;
935     new &= ~0x60000000;
936     new |= prev & 0x60000000;
937     for (i = 0; i < 8; i++) {
938         if (mask & (1 << i)) {
939             env->fpscr &= ~(0xF << (4 * i));
940             env->fpscr |= new & (0xF << (4 * i));
941         }
942     }
943     /* Update VX and FEX */
944     if (fpscr_ix != 0)
945         env->fpscr |= 1 << FPSCR_VX;
946     else
947         env->fpscr &= ~(1 << FPSCR_VX);
948     if ((fpscr_ex & fpscr_eex) != 0) {
949         env->fpscr |= 1 << FPSCR_FEX;
950         env->exception_index = POWERPC_EXCP_PROGRAM;
951         /* XXX: we should compute it properly */
952         env->error_code = POWERPC_EXCP_FP;
953     }
954     else
955         env->fpscr &= ~(1 << FPSCR_FEX);
956     fpscr_set_rounding_mode();
957 }
958
959 void helper_float_check_status (void)
960 {
961 #ifdef CONFIG_SOFTFLOAT
962     if (env->exception_index == POWERPC_EXCP_PROGRAM &&
963         (env->error_code & POWERPC_EXCP_FP)) {
964         /* Differred floating-point exception after target FPR update */
965         if (msr_fe0 != 0 || msr_fe1 != 0)
966             helper_raise_exception_err(env->exception_index, env->error_code);
967     } else {
968         int status = get_float_exception_flags(&env->fp_status);
969         if (status & float_flag_divbyzero) {
970             float_zero_divide_excp();
971         } else if (status & float_flag_overflow) {
972             float_overflow_excp();
973         } else if (status & float_flag_underflow) {
974             float_underflow_excp();
975         } else if (status & float_flag_inexact) {
976             float_inexact_excp();
977         }
978     }
979 #else
980     if (env->exception_index == POWERPC_EXCP_PROGRAM &&
981         (env->error_code & POWERPC_EXCP_FP)) {
982         /* Differred floating-point exception after target FPR update */
983         if (msr_fe0 != 0 || msr_fe1 != 0)
984             helper_raise_exception_err(env->exception_index, env->error_code);
985     }
986 #endif
987 }
988
989 #ifdef CONFIG_SOFTFLOAT
990 void helper_reset_fpstatus (void)
991 {
992     set_float_exception_flags(0, &env->fp_status);
993 }
994 #endif
995
996 /* fadd - fadd. */
997 uint64_t helper_fadd (uint64_t arg1, uint64_t arg2)
998 {
999     CPU_DoubleU farg1, farg2;
1000
1001     farg1.ll = arg1;
1002     farg2.ll = arg2;
1003 #if USE_PRECISE_EMULATION
1004     if (unlikely(float64_is_signaling_nan(farg1.d) ||
1005                  float64_is_signaling_nan(farg2.d))) {
1006         /* sNaN addition */
1007         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1008     } else if (unlikely(float64_is_infinity(farg1.d) && float64_is_infinity(farg2.d) &&
1009                       float64_is_neg(farg1.d) != float64_is_neg(farg2.d))) {
1010         /* Magnitude subtraction of infinities */
1011         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXISI);
1012     } else {
1013         farg1.d = float64_add(farg1.d, farg2.d, &env->fp_status);
1014     }
1015 #else
1016     farg1.d = float64_add(farg1.d, farg2.d, &env->fp_status);
1017 #endif
1018     return farg1.ll;
1019 }
1020
1021 /* fsub - fsub. */
1022 uint64_t helper_fsub (uint64_t arg1, uint64_t arg2)
1023 {
1024     CPU_DoubleU farg1, farg2;
1025
1026     farg1.ll = arg1;
1027     farg2.ll = arg2;
1028 #if USE_PRECISE_EMULATION
1029 {
1030     if (unlikely(float64_is_signaling_nan(farg1.d) ||
1031                  float64_is_signaling_nan(farg2.d))) {
1032         /* sNaN subtraction */
1033         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1034     } else if (unlikely(float64_is_infinity(farg1.d) && float64_is_infinity(farg2.d) &&
1035                       float64_is_neg(farg1.d) == float64_is_neg(farg2.d))) {
1036         /* Magnitude subtraction of infinities */
1037         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXISI);
1038     } else {
1039         farg1.d = float64_sub(farg1.d, farg2.d, &env->fp_status);
1040     }
1041 }
1042 #else
1043     farg1.d = float64_sub(farg1.d, farg2.d, &env->fp_status);
1044 #endif
1045     return farg1.ll;
1046 }
1047
1048 /* fmul - fmul. */
1049 uint64_t helper_fmul (uint64_t arg1, uint64_t arg2)
1050 {
1051     CPU_DoubleU farg1, farg2;
1052
1053     farg1.ll = arg1;
1054     farg2.ll = arg2;
1055 #if USE_PRECISE_EMULATION
1056     if (unlikely(float64_is_signaling_nan(farg1.d) ||
1057                  float64_is_signaling_nan(farg2.d))) {
1058         /* sNaN multiplication */
1059         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1060     } else if (unlikely((float64_is_infinity(farg1.d) && float64_is_zero(farg2.d)) ||
1061                         (float64_is_zero(farg1.d) && float64_is_infinity(farg2.d)))) {
1062         /* Multiplication of zero by infinity */
1063         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXIMZ);
1064     } else {
1065         farg1.d = float64_mul(farg1.d, farg2.d, &env->fp_status);
1066     }
1067 #else
1068     farg1.d = float64_mul(farg1.d, farg2.d, &env->fp_status);
1069 #endif
1070     return farg1.ll;
1071 }
1072
1073 /* fdiv - fdiv. */
1074 uint64_t helper_fdiv (uint64_t arg1, uint64_t arg2)
1075 {
1076     CPU_DoubleU farg1, farg2;
1077
1078     farg1.ll = arg1;
1079     farg2.ll = arg2;
1080 #if USE_PRECISE_EMULATION
1081     if (unlikely(float64_is_signaling_nan(farg1.d) ||
1082                  float64_is_signaling_nan(farg2.d))) {
1083         /* sNaN division */
1084         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1085     } else if (unlikely(float64_is_infinity(farg1.d) && float64_is_infinity(farg2.d))) {
1086         /* Division of infinity by infinity */
1087         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXIDI);
1088     } else if (unlikely(float64_is_zero(farg1.d) && float64_is_zero(farg2.d))) {
1089         /* Division of zero by zero */
1090         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXZDZ);
1091     } else {
1092         farg1.d = float64_div(farg1.d, farg2.d, &env->fp_status);
1093     }
1094 #else
1095     farg1.d = float64_div(farg1.d, farg2.d, &env->fp_status);
1096 #endif
1097     return farg1.ll;
1098 }
1099
1100 /* fabs */
1101 uint64_t helper_fabs (uint64_t arg)
1102 {
1103     CPU_DoubleU farg;
1104
1105     farg.ll = arg;
1106     farg.d = float64_abs(farg.d);
1107     return farg.ll;
1108 }
1109
1110 /* fnabs */
1111 uint64_t helper_fnabs (uint64_t arg)
1112 {
1113     CPU_DoubleU farg;
1114
1115     farg.ll = arg;
1116     farg.d = float64_abs(farg.d);
1117     farg.d = float64_chs(farg.d);
1118     return farg.ll;
1119 }
1120
1121 /* fneg */
1122 uint64_t helper_fneg (uint64_t arg)
1123 {
1124     CPU_DoubleU farg;
1125
1126     farg.ll = arg;
1127     farg.d = float64_chs(farg.d);
1128     return farg.ll;
1129 }
1130
1131 /* fctiw - fctiw. */
1132 uint64_t helper_fctiw (uint64_t arg)
1133 {
1134     CPU_DoubleU farg;
1135     farg.ll = arg;
1136
1137     if (unlikely(float64_is_signaling_nan(farg.d))) {
1138         /* sNaN conversion */
1139         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN | POWERPC_EXCP_FP_VXCVI);
1140     } else if (unlikely(float64_is_nan(farg.d) || float64_is_infinity(farg.d))) {
1141         /* qNan / infinity conversion */
1142         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXCVI);
1143     } else {
1144         farg.ll = float64_to_int32(farg.d, &env->fp_status);
1145 #if USE_PRECISE_EMULATION
1146         /* XXX: higher bits are not supposed to be significant.
1147          *     to make tests easier, return the same as a real PowerPC 750
1148          */
1149         farg.ll |= 0xFFF80000ULL << 32;
1150 #endif
1151     }
1152     return farg.ll;
1153 }
1154
1155 /* fctiwz - fctiwz. */
1156 uint64_t helper_fctiwz (uint64_t arg)
1157 {
1158     CPU_DoubleU farg;
1159     farg.ll = arg;
1160
1161     if (unlikely(float64_is_signaling_nan(farg.d))) {
1162         /* sNaN conversion */
1163         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN | POWERPC_EXCP_FP_VXCVI);
1164     } else if (unlikely(float64_is_nan(farg.d) || float64_is_infinity(farg.d))) {
1165         /* qNan / infinity conversion */
1166         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXCVI);
1167     } else {
1168         farg.ll = float64_to_int32_round_to_zero(farg.d, &env->fp_status);
1169 #if USE_PRECISE_EMULATION
1170         /* XXX: higher bits are not supposed to be significant.
1171          *     to make tests easier, return the same as a real PowerPC 750
1172          */
1173         farg.ll |= 0xFFF80000ULL << 32;
1174 #endif
1175     }
1176     return farg.ll;
1177 }
1178
1179 #if defined(TARGET_PPC64)
1180 /* fcfid - fcfid. */
1181 uint64_t helper_fcfid (uint64_t arg)
1182 {
1183     CPU_DoubleU farg;
1184     farg.d = int64_to_float64(arg, &env->fp_status);
1185     return farg.ll;
1186 }
1187
1188 /* fctid - fctid. */
1189 uint64_t helper_fctid (uint64_t arg)
1190 {
1191     CPU_DoubleU farg;
1192     farg.ll = arg;
1193
1194     if (unlikely(float64_is_signaling_nan(farg.d))) {
1195         /* sNaN conversion */
1196         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN | POWERPC_EXCP_FP_VXCVI);
1197     } else if (unlikely(float64_is_nan(farg.d) || float64_is_infinity(farg.d))) {
1198         /* qNan / infinity conversion */
1199         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXCVI);
1200     } else {
1201         farg.ll = float64_to_int64(farg.d, &env->fp_status);
1202     }
1203     return farg.ll;
1204 }
1205
1206 /* fctidz - fctidz. */
1207 uint64_t helper_fctidz (uint64_t arg)
1208 {
1209     CPU_DoubleU farg;
1210     farg.ll = arg;
1211
1212     if (unlikely(float64_is_signaling_nan(farg.d))) {
1213         /* sNaN conversion */
1214         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN | POWERPC_EXCP_FP_VXCVI);
1215     } else if (unlikely(float64_is_nan(farg.d) || float64_is_infinity(farg.d))) {
1216         /* qNan / infinity conversion */
1217         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXCVI);
1218     } else {
1219         farg.ll = float64_to_int64_round_to_zero(farg.d, &env->fp_status);
1220     }
1221     return farg.ll;
1222 }
1223
1224 #endif
1225
1226 static always_inline uint64_t do_fri (uint64_t arg, int rounding_mode)
1227 {
1228     CPU_DoubleU farg;
1229     farg.ll = arg;
1230
1231     if (unlikely(float64_is_signaling_nan(farg.d))) {
1232         /* sNaN round */
1233         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN | POWERPC_EXCP_FP_VXCVI);
1234     } else if (unlikely(float64_is_nan(farg.d) || float64_is_infinity(farg.d))) {
1235         /* qNan / infinity round */
1236         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXCVI);
1237     } else {
1238         set_float_rounding_mode(rounding_mode, &env->fp_status);
1239         farg.ll = float64_round_to_int(farg.d, &env->fp_status);
1240         /* Restore rounding mode from FPSCR */
1241         fpscr_set_rounding_mode();
1242     }
1243     return farg.ll;
1244 }
1245
1246 uint64_t helper_frin (uint64_t arg)
1247 {
1248     return do_fri(arg, float_round_nearest_even);
1249 }
1250
1251 uint64_t helper_friz (uint64_t arg)
1252 {
1253     return do_fri(arg, float_round_to_zero);
1254 }
1255
1256 uint64_t helper_frip (uint64_t arg)
1257 {
1258     return do_fri(arg, float_round_up);
1259 }
1260
1261 uint64_t helper_frim (uint64_t arg)
1262 {
1263     return do_fri(arg, float_round_down);
1264 }
1265
1266 /* fmadd - fmadd. */
1267 uint64_t helper_fmadd (uint64_t arg1, uint64_t arg2, uint64_t arg3)
1268 {
1269     CPU_DoubleU farg1, farg2, farg3;
1270
1271     farg1.ll = arg1;
1272     farg2.ll = arg2;
1273     farg3.ll = arg3;
1274 #if USE_PRECISE_EMULATION
1275     if (unlikely(float64_is_signaling_nan(farg1.d) ||
1276                  float64_is_signaling_nan(farg2.d) ||
1277                  float64_is_signaling_nan(farg3.d))) {
1278         /* sNaN operation */
1279         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1280     } else if (unlikely((float64_is_infinity(farg1.d) && float64_is_zero(farg2.d)) ||
1281                         (float64_is_zero(farg1.d) && float64_is_infinity(farg2.d)))) {
1282         /* Multiplication of zero by infinity */
1283         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXIMZ);
1284     } else {
1285 #ifdef FLOAT128
1286         /* This is the way the PowerPC specification defines it */
1287         float128 ft0_128, ft1_128;
1288
1289         ft0_128 = float64_to_float128(farg1.d, &env->fp_status);
1290         ft1_128 = float64_to_float128(farg2.d, &env->fp_status);
1291         ft0_128 = float128_mul(ft0_128, ft1_128, &env->fp_status);
1292         if (unlikely(float128_is_infinity(ft0_128) && float64_is_infinity(farg3.d) &&
1293                      float128_is_neg(ft0_128) != float64_is_neg(farg3.d))) {
1294             /* Magnitude subtraction of infinities */
1295             farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXISI);
1296         } else {
1297             ft1_128 = float64_to_float128(farg3.d, &env->fp_status);
1298             ft0_128 = float128_add(ft0_128, ft1_128, &env->fp_status);
1299             farg1.d = float128_to_float64(ft0_128, &env->fp_status);
1300         }
1301 #else
1302         /* This is OK on x86 hosts */
1303         farg1.d = (farg1.d * farg2.d) + farg3.d;
1304 #endif
1305     }
1306 #else
1307     farg1.d = float64_mul(farg1.d, farg2.d, &env->fp_status);
1308     farg1.d = float64_add(farg1.d, farg3.d, &env->fp_status);
1309 #endif
1310     return farg1.ll;
1311 }
1312
1313 /* fmsub - fmsub. */
1314 uint64_t helper_fmsub (uint64_t arg1, uint64_t arg2, uint64_t arg3)
1315 {
1316     CPU_DoubleU farg1, farg2, farg3;
1317
1318     farg1.ll = arg1;
1319     farg2.ll = arg2;
1320     farg3.ll = arg3;
1321 #if USE_PRECISE_EMULATION
1322     if (unlikely(float64_is_signaling_nan(farg1.d) ||
1323                  float64_is_signaling_nan(farg2.d) ||
1324                  float64_is_signaling_nan(farg3.d))) {
1325         /* sNaN operation */
1326         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1327     } else if (unlikely((float64_is_infinity(farg1.d) && float64_is_zero(farg2.d)) ||
1328                         (float64_is_zero(farg1.d) && float64_is_infinity(farg2.d)))) {
1329         /* Multiplication of zero by infinity */
1330         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXIMZ);
1331     } else {
1332 #ifdef FLOAT128
1333         /* This is the way the PowerPC specification defines it */
1334         float128 ft0_128, ft1_128;
1335
1336         ft0_128 = float64_to_float128(farg1.d, &env->fp_status);
1337         ft1_128 = float64_to_float128(farg2.d, &env->fp_status);
1338         ft0_128 = float128_mul(ft0_128, ft1_128, &env->fp_status);
1339         if (unlikely(float128_is_infinity(ft0_128) && float64_is_infinity(farg3.d) &&
1340                      float128_is_neg(ft0_128) == float64_is_neg(farg3.d))) {
1341             /* Magnitude subtraction of infinities */
1342             farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXISI);
1343         } else {
1344             ft1_128 = float64_to_float128(farg3.d, &env->fp_status);
1345             ft0_128 = float128_sub(ft0_128, ft1_128, &env->fp_status);
1346             farg1.d = float128_to_float64(ft0_128, &env->fp_status);
1347         }
1348 #else
1349         /* This is OK on x86 hosts */
1350         farg1.d = (farg1.d * farg2.d) - farg3.d;
1351 #endif
1352     }
1353 #else
1354     farg1.d = float64_mul(farg1.d, farg2.d, &env->fp_status);
1355     farg1.d = float64_sub(farg1.d, farg3.d, &env->fp_status);
1356 #endif
1357     return farg1.ll;
1358 }
1359
1360 /* fnmadd - fnmadd. */
1361 uint64_t helper_fnmadd (uint64_t arg1, uint64_t arg2, uint64_t arg3)
1362 {
1363     CPU_DoubleU farg1, farg2, farg3;
1364
1365     farg1.ll = arg1;
1366     farg2.ll = arg2;
1367     farg3.ll = arg3;
1368
1369     if (unlikely(float64_is_signaling_nan(farg1.d) ||
1370                  float64_is_signaling_nan(farg2.d) ||
1371                  float64_is_signaling_nan(farg3.d))) {
1372         /* sNaN operation */
1373         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1374     } else if (unlikely((float64_is_infinity(farg1.d) && float64_is_zero(farg2.d)) ||
1375                         (float64_is_zero(farg1.d) && float64_is_infinity(farg2.d)))) {
1376         /* Multiplication of zero by infinity */
1377         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXIMZ);
1378     } else {
1379 #if USE_PRECISE_EMULATION
1380 #ifdef FLOAT128
1381         /* This is the way the PowerPC specification defines it */
1382         float128 ft0_128, ft1_128;
1383
1384         ft0_128 = float64_to_float128(farg1.d, &env->fp_status);
1385         ft1_128 = float64_to_float128(farg2.d, &env->fp_status);
1386         ft0_128 = float128_mul(ft0_128, ft1_128, &env->fp_status);
1387         if (unlikely(float128_is_infinity(ft0_128) && float64_is_infinity(farg3.d) &&
1388                      float128_is_neg(ft0_128) != float64_is_neg(farg3.d))) {
1389             /* Magnitude subtraction of infinities */
1390             farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXISI);
1391         } else {
1392             ft1_128 = float64_to_float128(farg3.d, &env->fp_status);
1393             ft0_128 = float128_add(ft0_128, ft1_128, &env->fp_status);
1394             farg1.d = float128_to_float64(ft0_128, &env->fp_status);
1395         }
1396 #else
1397         /* This is OK on x86 hosts */
1398         farg1.d = (farg1.d * farg2.d) + farg3.d;
1399 #endif
1400 #else
1401         farg1.d = float64_mul(farg1.d, farg2.d, &env->fp_status);
1402         farg1.d = float64_add(farg1.d, farg3.d, &env->fp_status);
1403 #endif
1404         if (likely(!float64_is_nan(farg1.d)))
1405             farg1.d = float64_chs(farg1.d);
1406     }
1407     return farg1.ll;
1408 }
1409
1410 /* fnmsub - fnmsub. */
1411 uint64_t helper_fnmsub (uint64_t arg1, uint64_t arg2, uint64_t arg3)
1412 {
1413     CPU_DoubleU farg1, farg2, farg3;
1414
1415     farg1.ll = arg1;
1416     farg2.ll = arg2;
1417     farg3.ll = arg3;
1418
1419     if (unlikely(float64_is_signaling_nan(farg1.d) ||
1420                  float64_is_signaling_nan(farg2.d) ||
1421                  float64_is_signaling_nan(farg3.d))) {
1422         /* sNaN operation */
1423         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1424     } else if (unlikely((float64_is_infinity(farg1.d) && float64_is_zero(farg2.d)) ||
1425                         (float64_is_zero(farg1.d) && float64_is_infinity(farg2.d)))) {
1426         /* Multiplication of zero by infinity */
1427         farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXIMZ);
1428     } else {
1429 #if USE_PRECISE_EMULATION
1430 #ifdef FLOAT128
1431         /* This is the way the PowerPC specification defines it */
1432         float128 ft0_128, ft1_128;
1433
1434         ft0_128 = float64_to_float128(farg1.d, &env->fp_status);
1435         ft1_128 = float64_to_float128(farg2.d, &env->fp_status);
1436         ft0_128 = float128_mul(ft0_128, ft1_128, &env->fp_status);
1437         if (unlikely(float128_is_infinity(ft0_128) && float64_is_infinity(farg3.d) &&
1438                      float128_is_neg(ft0_128) == float64_is_neg(farg3.d))) {
1439             /* Magnitude subtraction of infinities */
1440             farg1.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXISI);
1441         } else {
1442             ft1_128 = float64_to_float128(farg3.d, &env->fp_status);
1443             ft0_128 = float128_sub(ft0_128, ft1_128, &env->fp_status);
1444             farg1.d = float128_to_float64(ft0_128, &env->fp_status);
1445         }
1446 #else
1447         /* This is OK on x86 hosts */
1448         farg1.d = (farg1.d * farg2.d) - farg3.d;
1449 #endif
1450 #else
1451         farg1.d = float64_mul(farg1.d, farg2.d, &env->fp_status);
1452         farg1.d = float64_sub(farg1.d, farg3.d, &env->fp_status);
1453 #endif
1454         if (likely(!float64_is_nan(farg1.d)))
1455             farg1.d = float64_chs(farg1.d);
1456     }
1457     return farg1.ll;
1458 }
1459
1460 /* frsp - frsp. */
1461 uint64_t helper_frsp (uint64_t arg)
1462 {
1463     CPU_DoubleU farg;
1464     float32 f32;
1465     farg.ll = arg;
1466
1467 #if USE_PRECISE_EMULATION
1468     if (unlikely(float64_is_signaling_nan(farg.d))) {
1469         /* sNaN square root */
1470        farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1471     } else {
1472        f32 = float64_to_float32(farg.d, &env->fp_status);
1473        farg.d = float32_to_float64(f32, &env->fp_status);
1474     }
1475 #else
1476     f32 = float64_to_float32(farg.d, &env->fp_status);
1477     farg.d = float32_to_float64(f32, &env->fp_status);
1478 #endif
1479     return farg.ll;
1480 }
1481
1482 /* fsqrt - fsqrt. */
1483 uint64_t helper_fsqrt (uint64_t arg)
1484 {
1485     CPU_DoubleU farg;
1486     farg.ll = arg;
1487
1488     if (unlikely(float64_is_signaling_nan(farg.d))) {
1489         /* sNaN square root */
1490         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1491     } else if (unlikely(float64_is_neg(farg.d) && !float64_is_zero(farg.d))) {
1492         /* Square root of a negative nonzero number */
1493         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSQRT);
1494     } else {
1495         farg.d = float64_sqrt(farg.d, &env->fp_status);
1496     }
1497     return farg.ll;
1498 }
1499
1500 /* fre - fre. */
1501 uint64_t helper_fre (uint64_t arg)
1502 {
1503     CPU_DoubleU fone, farg;
1504     fone.ll = 0x3FF0000000000000ULL; /* 1.0 */
1505     farg.ll = arg;
1506
1507     if (unlikely(float64_is_signaling_nan(farg.d))) {
1508         /* sNaN reciprocal */
1509         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1510     } else {
1511         farg.d = float64_div(fone.d, farg.d, &env->fp_status);
1512     }
1513     return farg.d;
1514 }
1515
1516 /* fres - fres. */
1517 uint64_t helper_fres (uint64_t arg)
1518 {
1519     CPU_DoubleU fone, farg;
1520     float32 f32;
1521     fone.ll = 0x3FF0000000000000ULL; /* 1.0 */
1522     farg.ll = arg;
1523
1524     if (unlikely(float64_is_signaling_nan(farg.d))) {
1525         /* sNaN reciprocal */
1526         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1527     } else {
1528         farg.d = float64_div(fone.d, farg.d, &env->fp_status);
1529         f32 = float64_to_float32(farg.d, &env->fp_status);
1530         farg.d = float32_to_float64(f32, &env->fp_status);
1531     }
1532     return farg.ll;
1533 }
1534
1535 /* frsqrte  - frsqrte. */
1536 uint64_t helper_frsqrte (uint64_t arg)
1537 {
1538     CPU_DoubleU fone, farg;
1539     float32 f32;
1540     fone.ll = 0x3FF0000000000000ULL; /* 1.0 */
1541     farg.ll = arg;
1542
1543     if (unlikely(float64_is_signaling_nan(farg.d))) {
1544         /* sNaN reciprocal square root */
1545         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1546     } else if (unlikely(float64_is_neg(farg.d) && !float64_is_zero(farg.d))) {
1547         /* Reciprocal square root of a negative nonzero number */
1548         farg.ll = fload_invalid_op_excp(POWERPC_EXCP_FP_VXSQRT);
1549     } else {
1550         farg.d = float64_sqrt(farg.d, &env->fp_status);
1551         farg.d = float64_div(fone.d, farg.d, &env->fp_status);
1552         f32 = float64_to_float32(farg.d, &env->fp_status);
1553         farg.d = float32_to_float64(f32, &env->fp_status);
1554     }
1555     return farg.ll;
1556 }
1557
1558 /* fsel - fsel. */
1559 uint64_t helper_fsel (uint64_t arg1, uint64_t arg2, uint64_t arg3)
1560 {
1561     CPU_DoubleU farg1;
1562
1563     farg1.ll = arg1;
1564
1565     if ((!float64_is_neg(farg1.d) || float64_is_zero(farg1.d)) && !float64_is_nan(farg1.d))
1566         return arg2;
1567     else
1568         return arg3;
1569 }
1570
1571 void helper_fcmpu (uint64_t arg1, uint64_t arg2, uint32_t crfD)
1572 {
1573     CPU_DoubleU farg1, farg2;
1574     uint32_t ret = 0;
1575     farg1.ll = arg1;
1576     farg2.ll = arg2;
1577
1578     if (unlikely(float64_is_nan(farg1.d) ||
1579                  float64_is_nan(farg2.d))) {
1580         ret = 0x01UL;
1581     } else if (float64_lt(farg1.d, farg2.d, &env->fp_status)) {
1582         ret = 0x08UL;
1583     } else if (!float64_le(farg1.d, farg2.d, &env->fp_status)) {
1584         ret = 0x04UL;
1585     } else {
1586         ret = 0x02UL;
1587     }
1588
1589     env->fpscr &= ~(0x0F << FPSCR_FPRF);
1590     env->fpscr |= ret << FPSCR_FPRF;
1591     env->crf[crfD] = ret;
1592     if (unlikely(ret == 0x01UL
1593                  && (float64_is_signaling_nan(farg1.d) ||
1594                      float64_is_signaling_nan(farg2.d)))) {
1595         /* sNaN comparison */
1596         fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN);
1597     }
1598 }
1599
1600 void helper_fcmpo (uint64_t arg1, uint64_t arg2, uint32_t crfD)
1601 {
1602     CPU_DoubleU farg1, farg2;
1603     uint32_t ret = 0;
1604     farg1.ll = arg1;
1605     farg2.ll = arg2;
1606
1607     if (unlikely(float64_is_nan(farg1.d) ||
1608                  float64_is_nan(farg2.d))) {
1609         ret = 0x01UL;
1610     } else if (float64_lt(farg1.d, farg2.d, &env->fp_status)) {
1611         ret = 0x08UL;
1612     } else if (!float64_le(farg1.d, farg2.d, &env->fp_status)) {
1613         ret = 0x04UL;
1614     } else {
1615         ret = 0x02UL;
1616     }
1617
1618     env->fpscr &= ~(0x0F << FPSCR_FPRF);
1619     env->fpscr |= ret << FPSCR_FPRF;
1620     env->crf[crfD] = ret;
1621     if (unlikely (ret == 0x01UL)) {
1622         if (float64_is_signaling_nan(farg1.d) ||
1623             float64_is_signaling_nan(farg2.d)) {
1624             /* sNaN comparison */
1625             fload_invalid_op_excp(POWERPC_EXCP_FP_VXSNAN |
1626                                   POWERPC_EXCP_FP_VXVC);
1627         } else {
1628             /* qNaN comparison */
1629             fload_invalid_op_excp(POWERPC_EXCP_FP_VXVC);
1630         }
1631     }
1632 }
1633
1634 #if !defined (CONFIG_USER_ONLY)
1635 void helper_store_msr (target_ulong val)
1636 {
1637     val = hreg_store_msr(env, val, 0);
1638     if (val != 0) {
1639         env->interrupt_request |= CPU_INTERRUPT_EXITTB;
1640         helper_raise_exception(val);
1641     }
1642 }
1643
1644 static always_inline void do_rfi (target_ulong nip, target_ulong msr,
1645                                     target_ulong msrm, int keep_msrh)
1646 {
1647 #if defined(TARGET_PPC64)
1648     if (msr & (1ULL << MSR_SF)) {
1649         nip = (uint64_t)nip;
1650         msr &= (uint64_t)msrm;
1651     } else {
1652         nip = (uint32_t)nip;
1653         msr = (uint32_t)(msr & msrm);
1654         if (keep_msrh)
1655             msr |= env->msr & ~((uint64_t)0xFFFFFFFF);
1656     }
1657 #else
1658     nip = (uint32_t)nip;
1659     msr &= (uint32_t)msrm;
1660 #endif
1661     /* XXX: beware: this is false if VLE is supported */
1662     env->nip = nip & ~((target_ulong)0x00000003);
1663     hreg_store_msr(env, msr, 1);
1664 #if defined (DEBUG_OP)
1665     cpu_dump_rfi(env->nip, env->msr);
1666 #endif
1667     /* No need to raise an exception here,
1668      * as rfi is always the last insn of a TB
1669      */
1670     env->interrupt_request |= CPU_INTERRUPT_EXITTB;
1671 }
1672
1673 void helper_rfi (void)
1674 {
1675     do_rfi(env->spr[SPR_SRR0], env->spr[SPR_SRR1],
1676            ~((target_ulong)0xFFFF0000), 1);
1677 }
1678
1679 #if defined(TARGET_PPC64)
1680 void helper_rfid (void)
1681 {
1682     do_rfi(env->spr[SPR_SRR0], env->spr[SPR_SRR1],
1683            ~((target_ulong)0xFFFF0000), 0);
1684 }
1685
1686 void helper_hrfid (void)
1687 {
1688     do_rfi(env->spr[SPR_HSRR0], env->spr[SPR_HSRR1],
1689            ~((target_ulong)0xFFFF0000), 0);
1690 }
1691 #endif
1692 #endif
1693
1694 void helper_tw (target_ulong arg1, target_ulong arg2, uint32_t flags)
1695 {
1696     if (!likely(!(((int32_t)arg1 < (int32_t)arg2 && (flags & 0x10)) ||
1697                   ((int32_t)arg1 > (int32_t)arg2 && (flags & 0x08)) ||
1698                   ((int32_t)arg1 == (int32_t)arg2 && (flags & 0x04)) ||
1699                   ((uint32_t)arg1 < (uint32_t)arg2 && (flags & 0x02)) ||
1700                   ((uint32_t)arg1 > (uint32_t)arg2 && (flags & 0x01))))) {
1701         helper_raise_exception_err(POWERPC_EXCP_PROGRAM, POWERPC_EXCP_TRAP);
1702     }
1703 }
1704
1705 #if defined(TARGET_PPC64)
1706 void helper_td (target_ulong arg1, target_ulong arg2, uint32_t flags)
1707 {
1708     if (!likely(!(((int64_t)arg1 < (int64_t)arg2 && (flags & 0x10)) ||
1709                   ((int64_t)arg1 > (int64_t)arg2 && (flags & 0x08)) ||
1710                   ((int64_t)arg1 == (int64_t)arg2 && (flags & 0x04)) ||
1711                   ((uint64_t)arg1 < (uint64_t)arg2 && (flags & 0x02)) ||
1712                   ((uint64_t)arg1 > (uint64_t)arg2 && (flags & 0x01)))))
1713         helper_raise_exception_err(POWERPC_EXCP_PROGRAM, POWERPC_EXCP_TRAP);
1714 }
1715 #endif
1716
1717 /*****************************************************************************/
1718 /* PowerPC 601 specific instructions (POWER bridge) */
1719
1720 target_ulong helper_clcs (uint32_t arg)
1721 {
1722     switch (arg) {
1723     case 0x0CUL:
1724         /* Instruction cache line size */
1725         return env->icache_line_size;
1726         break;
1727     case 0x0DUL:
1728         /* Data cache line size */
1729         return env->dcache_line_size;
1730         break;
1731     case 0x0EUL:
1732         /* Minimum cache line size */
1733         return (env->icache_line_size < env->dcache_line_size) ?
1734                 env->icache_line_size : env->dcache_line_size;
1735         break;
1736     case 0x0FUL:
1737         /* Maximum cache line size */
1738         return (env->icache_line_size > env->dcache_line_size) ?
1739                 env->icache_line_size : env->dcache_line_size;
1740         break;
1741     default:
1742         /* Undefined */
1743         return 0;
1744         break;
1745     }
1746 }
1747
1748 target_ulong helper_div (target_ulong arg1, target_ulong arg2)
1749 {
1750     uint64_t tmp = (uint64_t)arg1 << 32 | env->spr[SPR_MQ];
1751
1752     if (((int32_t)tmp == INT32_MIN && (int32_t)arg2 == (int32_t)-1) ||
1753         (int32_t)arg2 == 0) {
1754         env->spr[SPR_MQ] = 0;
1755         return INT32_MIN;
1756     } else {
1757         env->spr[SPR_MQ] = tmp % arg2;
1758         return  tmp / (int32_t)arg2;
1759     }
1760 }
1761
1762 target_ulong helper_divo (target_ulong arg1, target_ulong arg2)
1763 {
1764     uint64_t tmp = (uint64_t)arg1 << 32 | env->spr[SPR_MQ];
1765
1766     if (((int32_t)tmp == INT32_MIN && (int32_t)arg2 == (int32_t)-1) ||
1767         (int32_t)arg2 == 0) {
1768         env->xer |= (1 << XER_OV) | (1 << XER_SO);
1769         env->spr[SPR_MQ] = 0;
1770         return INT32_MIN;
1771     } else {
1772         env->spr[SPR_MQ] = tmp % arg2;
1773         tmp /= (int32_t)arg2;
1774         if ((int32_t)tmp != tmp) {
1775             env->xer |= (1 << XER_OV) | (1 << XER_SO);
1776         } else {
1777             env->xer &= ~(1 << XER_OV);
1778         }
1779         return tmp;
1780     }
1781 }
1782
1783 target_ulong helper_divs (target_ulong arg1, target_ulong arg2)
1784 {
1785     if (((int32_t)arg1 == INT32_MIN && (int32_t)arg2 == (int32_t)-1) ||
1786         (int32_t)arg2 == 0) {
1787         env->spr[SPR_MQ] = 0;
1788         return INT32_MIN;
1789     } else {
1790         env->spr[SPR_MQ] = (int32_t)arg1 % (int32_t)arg2;
1791         return (int32_t)arg1 / (int32_t)arg2;
1792     }
1793 }
1794
1795 target_ulong helper_divso (target_ulong arg1, target_ulong arg2)
1796 {
1797     if (((int32_t)arg1 == INT32_MIN && (int32_t)arg2 == (int32_t)-1) ||
1798         (int32_t)arg2 == 0) {
1799         env->xer |= (1 << XER_OV) | (1 << XER_SO);
1800         env->spr[SPR_MQ] = 0;
1801         return INT32_MIN;
1802     } else {
1803         env->xer &= ~(1 << XER_OV);
1804         env->spr[SPR_MQ] = (int32_t)arg1 % (int32_t)arg2;
1805         return (int32_t)arg1 / (int32_t)arg2;
1806     }
1807 }
1808
1809 #if !defined (CONFIG_USER_ONLY)
1810 target_ulong helper_rac (target_ulong addr)
1811 {
1812     mmu_ctx_t ctx;
1813     int nb_BATs;
1814     target_ulong ret = 0;
1815
1816     /* We don't have to generate many instances of this instruction,
1817      * as rac is supervisor only.
1818      */
1819     /* XXX: FIX THIS: Pretend we have no BAT */
1820     nb_BATs = env->nb_BATs;
1821     env->nb_BATs = 0;
1822     if (get_physical_address(env, &ctx, addr, 0, ACCESS_INT) == 0)
1823         ret = ctx.raddr;
1824     env->nb_BATs = nb_BATs;
1825     return ret;
1826 }
1827
1828 void helper_rfsvc (void)
1829 {
1830     do_rfi(env->lr, env->ctr, 0x0000FFFF, 0);
1831 }
1832 #endif
1833
1834 /*****************************************************************************/
1835 /* 602 specific instructions */
1836 /* mfrom is the most crazy instruction ever seen, imho ! */
1837 /* Real implementation uses a ROM table. Do the same */
1838 /* Extremly decomposed:
1839  *                      -arg / 256
1840  * return 256 * log10(10           + 1.0) + 0.5
1841  */
1842 #if !defined (CONFIG_USER_ONLY)
1843 target_ulong helper_602_mfrom (target_ulong arg)
1844 {
1845     if (likely(arg < 602)) {
1846 #include "mfrom_table.c"
1847         return mfrom_ROM_table[arg];
1848     } else {
1849         return 0;
1850     }
1851 }
1852 #endif
1853
1854 /*****************************************************************************/
1855 /* Embedded PowerPC specific helpers */
1856
1857 /* XXX: to be improved to check access rights when in user-mode */
1858 target_ulong helper_load_dcr (target_ulong dcrn)
1859 {
1860     target_ulong val = 0;
1861
1862     if (unlikely(env->dcr_env == NULL)) {
1863         if (loglevel != 0) {
1864             fprintf(logfile, "No DCR environment\n");
1865         }
1866         helper_raise_exception_err(POWERPC_EXCP_PROGRAM,
1867                                    POWERPC_EXCP_INVAL | POWERPC_EXCP_INVAL_INVAL);
1868     } else if (unlikely(ppc_dcr_read(env->dcr_env, dcrn, &val) != 0)) {
1869         if (loglevel != 0) {
1870             fprintf(logfile, "DCR read error %d %03x\n", (int)dcrn, (int)dcrn);
1871         }
1872         helper_raise_exception_err(POWERPC_EXCP_PROGRAM,
1873                                    POWERPC_EXCP_INVAL | POWERPC_EXCP_PRIV_REG);
1874     }
1875     return val;
1876 }
1877
1878 void helper_store_dcr (target_ulong dcrn, target_ulong val)
1879 {
1880     if (unlikely(env->dcr_env == NULL)) {
1881         if (loglevel != 0) {
1882             fprintf(logfile, "No DCR environment\n");
1883         }
1884         helper_raise_exception_err(POWERPC_EXCP_PROGRAM,
1885                                    POWERPC_EXCP_INVAL | POWERPC_EXCP_INVAL_INVAL);
1886     } else if (unlikely(ppc_dcr_write(env->dcr_env, dcrn, val) != 0)) {
1887         if (loglevel != 0) {
1888             fprintf(logfile, "DCR write error %d %03x\n", (int)dcrn, (int)dcrn);
1889         }
1890         helper_raise_exception_err(POWERPC_EXCP_PROGRAM,
1891                                    POWERPC_EXCP_INVAL | POWERPC_EXCP_PRIV_REG);
1892     }
1893 }
1894
1895 #if !defined(CONFIG_USER_ONLY)
1896 void helper_40x_rfci (void)
1897 {
1898     do_rfi(env->spr[SPR_40x_SRR2], env->spr[SPR_40x_SRR3],
1899            ~((target_ulong)0xFFFF0000), 0);
1900 }
1901
1902 void helper_rfci (void)
1903 {
1904     do_rfi(env->spr[SPR_BOOKE_CSRR0], SPR_BOOKE_CSRR1,
1905            ~((target_ulong)0x3FFF0000), 0);
1906 }
1907
1908 void helper_rfdi (void)
1909 {
1910     do_rfi(env->spr[SPR_BOOKE_DSRR0], SPR_BOOKE_DSRR1,
1911            ~((target_ulong)0x3FFF0000), 0);
1912 }
1913
1914 void helper_rfmci (void)
1915 {
1916     do_rfi(env->spr[SPR_BOOKE_MCSRR0], SPR_BOOKE_MCSRR1,
1917            ~((target_ulong)0x3FFF0000), 0);
1918 }
1919 #endif
1920
1921 /* 440 specific */
1922 target_ulong helper_dlmzb (target_ulong high, target_ulong low, uint32_t update_Rc)
1923 {
1924     target_ulong mask;
1925     int i;
1926
1927     i = 1;
1928     for (mask = 0xFF000000; mask != 0; mask = mask >> 8) {
1929         if ((high & mask) == 0) {
1930             if (update_Rc) {
1931                 env->crf[0] = 0x4;
1932             }
1933             goto done;
1934         }
1935         i++;
1936     }
1937     for (mask = 0xFF000000; mask != 0; mask = mask >> 8) {
1938         if ((low & mask) == 0) {
1939             if (update_Rc) {
1940                 env->crf[0] = 0x8;
1941             }
1942             goto done;
1943         }
1944         i++;
1945     }
1946     if (update_Rc) {
1947         env->crf[0] = 0x2;
1948     }
1949  done:
1950     env->xer = (env->xer & ~0x7F) | i;
1951     if (update_Rc) {
1952         env->crf[0] |= xer_so;
1953     }
1954     return i;
1955 }
1956
1957 /*****************************************************************************/
1958 /* Altivec extension helpers */
1959 #if defined(WORDS_BIGENDIAN)
1960 #define HI_IDX 0
1961 #define LO_IDX 1
1962 #else
1963 #define HI_IDX 1
1964 #define LO_IDX 0
1965 #endif
1966
1967 #if defined(WORDS_BIGENDIAN)
1968 #define VECTOR_FOR_INORDER_I(index, element)            \
1969     for (index = 0; index < ARRAY_SIZE(r->element); index++)
1970 #else
1971 #define VECTOR_FOR_INORDER_I(index, element)            \
1972   for (index = ARRAY_SIZE(r->element)-1; index >= 0; index--)
1973 #endif
1974
1975 /* Saturating arithmetic helpers.  */
1976 #define SATCVT(from, to, from_type, to_type, min, max, use_min, use_max) \
1977     static always_inline to_type cvt##from##to (from_type x, int *sat)  \
1978     {                                                                   \
1979         to_type r;                                                      \
1980         if (use_min && x < min) {                                       \
1981             r = min;                                                    \
1982             *sat = 1;                                                   \
1983         } else if (use_max && x > max) {                                \
1984             r = max;                                                    \
1985             *sat = 1;                                                   \
1986         } else {                                                        \
1987             r = x;                                                      \
1988         }                                                               \
1989         return r;                                                       \
1990     }
1991 SATCVT(sh, sb, int16_t, int8_t, INT8_MIN, INT8_MAX, 1, 1)
1992 SATCVT(sw, sh, int32_t, int16_t, INT16_MIN, INT16_MAX, 1, 1)
1993 SATCVT(sd, sw, int64_t, int32_t, INT32_MIN, INT32_MAX, 1, 1)
1994 SATCVT(uh, ub, uint16_t, uint8_t, 0, UINT8_MAX, 0, 1)
1995 SATCVT(uw, uh, uint32_t, uint16_t, 0, UINT16_MAX, 0, 1)
1996 SATCVT(ud, uw, uint64_t, uint32_t, 0, UINT32_MAX, 0, 1)
1997 SATCVT(sh, ub, int16_t, uint8_t, 0, UINT8_MAX, 1, 1)
1998 SATCVT(sw, uh, int32_t, uint16_t, 0, UINT16_MAX, 1, 1)
1999 SATCVT(sd, uw, int64_t, uint32_t, 0, UINT32_MAX, 1, 1)
2000 #undef SATCVT
2001
2002 void helper_lvsl (ppc_avr_t *r, target_ulong sh)
2003 {
2004     int i, j = (sh & 0xf);
2005
2006     VECTOR_FOR_INORDER_I (i, u8) {
2007         r->u8[i] = j++;
2008     }
2009 }
2010
2011 void helper_lvsr (ppc_avr_t *r, target_ulong sh)
2012 {
2013     int i, j = 0x10 - (sh & 0xf);
2014
2015     VECTOR_FOR_INORDER_I (i, u8) {
2016         r->u8[i] = j++;
2017     }
2018 }
2019
2020 void helper_vaddcuw (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b)
2021 {
2022     int i;
2023     for (i = 0; i < ARRAY_SIZE(r->u32); i++) {
2024         r->u32[i] = ~a->u32[i] < b->u32[i];
2025     }
2026 }
2027
2028 #define VARITH_DO(name, op, element)        \
2029 void helper_v##name (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b)          \
2030 {                                                                       \
2031     int i;                                                              \
2032     for (i = 0; i < ARRAY_SIZE(r->element); i++) {                      \
2033         r->element[i] = a->element[i] op b->element[i];                 \
2034     }                                                                   \
2035 }
2036 #define VARITH(suffix, element)                  \
2037   VARITH_DO(add##suffix, +, element)             \
2038   VARITH_DO(sub##suffix, -, element)
2039 VARITH(ubm, u8)
2040 VARITH(uhm, u16)
2041 VARITH(uwm, u32)
2042 #undef VARITH_DO
2043 #undef VARITH
2044
2045 #define VAVG_DO(name, element, etype)                                   \
2046     void helper_v##name (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b)      \
2047     {                                                                   \
2048         int i;                                                          \
2049         for (i = 0; i < ARRAY_SIZE(r->element); i++) {                  \
2050             etype x = (etype)a->element[i] + (etype)b->element[i] + 1;  \
2051             r->element[i] = x >> 1;                                     \
2052         }                                                               \
2053     }
2054
2055 #define VAVG(type, signed_element, signed_type, unsigned_element, unsigned_type) \
2056     VAVG_DO(avgs##type, signed_element, signed_type)                    \
2057     VAVG_DO(avgu##type, unsigned_element, unsigned_type)
2058 VAVG(b, s8, int16_t, u8, uint16_t)
2059 VAVG(h, s16, int32_t, u16, uint32_t)
2060 VAVG(w, s32, int64_t, u32, uint64_t)
2061 #undef VAVG_DO
2062 #undef VAVG
2063
2064 #define VMINMAX_DO(name, compare, element)                              \
2065     void helper_v##name (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b)      \
2066     {                                                                   \
2067         int i;                                                          \
2068         for (i = 0; i < ARRAY_SIZE(r->element); i++) {                  \
2069             if (a->element[i] compare b->element[i]) {                  \
2070                 r->element[i] = b->element[i];                          \
2071             } else {                                                    \
2072                 r->element[i] = a->element[i];                          \
2073             }                                                           \
2074         }                                                               \
2075     }
2076 #define VMINMAX(suffix, element)                \
2077   VMINMAX_DO(min##suffix, >, element)           \
2078   VMINMAX_DO(max##suffix, <, element)
2079 VMINMAX(sb, s8)
2080 VMINMAX(sh, s16)
2081 VMINMAX(sw, s32)
2082 VMINMAX(ub, u8)
2083 VMINMAX(uh, u16)
2084 VMINMAX(uw, u32)
2085 #undef VMINMAX_DO
2086 #undef VMINMAX
2087
2088 #define VMRG_DO(name, element, highp)                                   \
2089     void helper_v##name (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b)      \
2090     {                                                                   \
2091         ppc_avr_t result;                                               \
2092         int i;                                                          \
2093         size_t n_elems = ARRAY_SIZE(r->element);                        \
2094         for (i = 0; i < n_elems/2; i++) {                               \
2095             if (highp) {                                                \
2096                 result.element[i*2+HI_IDX] = a->element[i];             \
2097                 result.element[i*2+LO_IDX] = b->element[i];             \
2098             } else {                                                    \
2099                 result.element[n_elems - i*2 - (1+HI_IDX)] = b->element[n_elems - i - 1]; \
2100                 result.element[n_elems - i*2 - (1+LO_IDX)] = a->element[n_elems - i - 1]; \
2101             }                                                           \
2102         }                                                               \
2103         *r = result;                                                    \
2104     }
2105 #if defined(WORDS_BIGENDIAN)
2106 #define MRGHI 0
2107 #define MRGL0 1
2108 #else
2109 #define MRGHI 1
2110 #define MRGLO 0
2111 #endif
2112 #define VMRG(suffix, element)                   \
2113   VMRG_DO(mrgl##suffix, element, MRGHI)         \
2114   VMRG_DO(mrgh##suffix, element, MRGLO)
2115 VMRG(b, u8)
2116 VMRG(h, u16)
2117 VMRG(w, u32)
2118 #undef VMRG_DO
2119 #undef VMRG
2120 #undef MRGHI
2121 #undef MRGLO
2122
2123 void helper_vmsummbm (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b, ppc_avr_t *c)
2124 {
2125     int32_t prod[16];
2126     int i;
2127
2128     for (i = 0; i < ARRAY_SIZE(r->s8); i++) {
2129         prod[i] = (int32_t)a->s8[i] * b->u8[i];
2130     }
2131
2132     VECTOR_FOR_INORDER_I(i, s32) {
2133         r->s32[i] = c->s32[i] + prod[4*i] + prod[4*i+1] + prod[4*i+2] + prod[4*i+3];
2134     }
2135 }
2136
2137 void helper_vmsumubm (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b, ppc_avr_t *c)
2138 {
2139     uint16_t prod[16];
2140     int i;
2141
2142     for (i = 0; i < ARRAY_SIZE(r->u8); i++) {
2143         prod[i] = a->u8[i] * b->u8[i];
2144     }
2145
2146     VECTOR_FOR_INORDER_I(i, u32) {
2147         r->u32[i] = c->u32[i] + prod[4*i] + prod[4*i+1] + prod[4*i+2] + prod[4*i+3];
2148     }
2149 }
2150
2151 #define VMUL_DO(name, mul_element, prod_element, evenp)                 \
2152     void helper_v##name (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b)      \
2153     {                                                                   \
2154         int i;                                                          \
2155         VECTOR_FOR_INORDER_I(i, prod_element) {                         \
2156             if (evenp) {                                                \
2157                 r->prod_element[i] = a->mul_element[i*2+HI_IDX] * b->mul_element[i*2+HI_IDX]; \
2158             } else {                                                    \
2159                 r->prod_element[i] = a->mul_element[i*2+LO_IDX] * b->mul_element[i*2+LO_IDX]; \
2160             }                                                           \
2161         }                                                               \
2162     }
2163 #define VMUL(suffix, mul_element, prod_element) \
2164   VMUL_DO(mule##suffix, mul_element, prod_element, 1) \
2165   VMUL_DO(mulo##suffix, mul_element, prod_element, 0)
2166 VMUL(sb, s8, s16)
2167 VMUL(sh, s16, s32)
2168 VMUL(ub, u8, u16)
2169 VMUL(uh, u16, u32)
2170 #undef VMUL_DO
2171 #undef VMUL
2172
2173 void helper_vperm (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b, ppc_avr_t *c)
2174 {
2175     ppc_avr_t result;
2176     int i;
2177     VECTOR_FOR_INORDER_I (i, u8) {
2178         int s = c->u8[i] & 0x1f;
2179 #if defined(WORDS_BIGENDIAN)
2180         int index = s & 0xf;
2181 #else
2182         int index = 15 - (s & 0xf);
2183 #endif
2184         if (s & 0x10) {
2185             result.u8[i] = b->u8[index];
2186         } else {
2187             result.u8[i] = a->u8[index];
2188         }
2189     }
2190     *r = result;
2191 }
2192
2193 #define VROTATE(suffix, element)                                        \
2194     void helper_vrl##suffix (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b)  \
2195     {                                                                   \
2196         int i;                                                          \
2197         for (i = 0; i < ARRAY_SIZE(r->element); i++) {                  \
2198             unsigned int mask = ((1 << (3 + (sizeof (a->element[0]) >> 1))) - 1); \
2199             unsigned int shift = b->element[i] & mask;                  \
2200             r->element[i] = (a->element[i] << shift) | (a->element[i] >> (sizeof(a->element[0]) * 8 - shift)); \
2201         }                                                               \
2202     }
2203 VROTATE(b, u8)
2204 VROTATE(h, u16)
2205 VROTATE(w, u32)
2206 #undef VROTATE
2207
2208 void helper_vsel (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b, ppc_avr_t *c)
2209 {
2210     r->u64[0] = (a->u64[0] & ~c->u64[0]) | (b->u64[0] & c->u64[0]);
2211     r->u64[1] = (a->u64[1] & ~c->u64[1]) | (b->u64[1] & c->u64[1]);
2212 }
2213
2214 #define VSL(suffix, element)                                            \
2215     void helper_vsl##suffix (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b)  \
2216     {                                                                   \
2217         int i;                                                          \
2218         for (i = 0; i < ARRAY_SIZE(r->element); i++) {                  \
2219             unsigned int mask = ((1 << (3 + (sizeof (a->element[0]) >> 1))) - 1); \
2220             unsigned int shift = b->element[i] & mask;                  \
2221             r->element[i] = a->element[i] << shift;                     \
2222         }                                                               \
2223     }
2224 VSL(b, u8)
2225 VSL(h, u16)
2226 VSL(w, u32)
2227 #undef VSL
2228
2229 void helper_vsldoi (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b, uint32_t shift)
2230 {
2231     int sh = shift & 0xf;
2232     int i;
2233     ppc_avr_t result;
2234
2235 #if defined(WORDS_BIGENDIAN)
2236     for (i = 0; i < ARRAY_SIZE(r->u8); i++) {
2237         int index = sh + i;
2238         if (index > 0xf) {
2239             result.u8[i] = b->u8[index-0x10];
2240         } else {
2241             result.u8[i] = a->u8[index];
2242         }
2243     }
2244 #else
2245     for (i = 0; i < ARRAY_SIZE(r->u8); i++) {
2246         int index = (16 - sh) + i;
2247         if (index > 0xf) {
2248             result.u8[i] = a->u8[index-0x10];
2249         } else {
2250             result.u8[i] = b->u8[index];
2251         }
2252     }
2253 #endif
2254     *r = result;
2255 }
2256
2257 void helper_vslo (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b)
2258 {
2259   int sh = (b->u8[LO_IDX*0xf] >> 3) & 0xf;
2260
2261 #if defined (WORDS_BIGENDIAN)
2262   memmove (&r->u8[0], &a->u8[sh], 16-sh);
2263   memset (&r->u8[16-sh], 0, sh);
2264 #else
2265   memmove (&r->u8[sh], &a->u8[0], 16-sh);
2266   memset (&r->u8[0], 0, sh);
2267 #endif
2268 }
2269
2270 /* Experimental testing shows that hardware masks the immediate.  */
2271 #define _SPLAT_MASKED(element) (splat & (ARRAY_SIZE(r->element) - 1))
2272 #if defined(WORDS_BIGENDIAN)
2273 #define SPLAT_ELEMENT(element) _SPLAT_MASKED(element)
2274 #else
2275 #define SPLAT_ELEMENT(element) (ARRAY_SIZE(r->element)-1 - _SPLAT_MASKED(element))
2276 #endif
2277 #define VSPLT(suffix, element)                                          \
2278     void helper_vsplt##suffix (ppc_avr_t *r, ppc_avr_t *b, uint32_t splat) \
2279     {                                                                   \
2280         uint32_t s = b->element[SPLAT_ELEMENT(element)];                \
2281         int i;                                                          \
2282         for (i = 0; i < ARRAY_SIZE(r->element); i++) {                  \
2283             r->element[i] = s;                                          \
2284         }                                                               \
2285     }
2286 VSPLT(b, u8)
2287 VSPLT(h, u16)
2288 VSPLT(w, u32)
2289 #undef VSPLT
2290 #undef SPLAT_ELEMENT
2291 #undef _SPLAT_MASKED
2292
2293 #define VSR(suffix, element)                                            \
2294     void helper_vsr##suffix (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b)  \
2295     {                                                                   \
2296         int i;                                                          \
2297         for (i = 0; i < ARRAY_SIZE(r->element); i++) {                  \
2298             unsigned int mask = ((1 << (3 + (sizeof (a->element[0]) >> 1))) - 1); \
2299             unsigned int shift = b->element[i] & mask;                  \
2300             r->element[i] = a->element[i] >> shift;                     \
2301         }                                                               \
2302     }
2303 VSR(ab, s8)
2304 VSR(ah, s16)
2305 VSR(aw, s32)
2306 VSR(b, u8)
2307 VSR(h, u16)
2308 VSR(w, u32)
2309 #undef VSR
2310
2311 void helper_vsro (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b)
2312 {
2313   int sh = (b->u8[LO_IDX*0xf] >> 3) & 0xf;
2314
2315 #if defined (WORDS_BIGENDIAN)
2316   memmove (&r->u8[sh], &a->u8[0], 16-sh);
2317   memset (&r->u8[0], 0, sh);
2318 #else
2319   memmove (&r->u8[0], &a->u8[sh], 16-sh);
2320   memset (&r->u8[16-sh], 0, sh);
2321 #endif
2322 }
2323
2324 void helper_vsubcuw (ppc_avr_t *r, ppc_avr_t *a, ppc_avr_t *b)
2325 {
2326     int i;
2327     for (i = 0; i < ARRAY_SIZE(r->u32); i++) {
2328         r->u32[i] = a->u32[i] >= b->u32[i];
2329     }
2330 }
2331
2332 #if defined(WORDS_BIGENDIAN)
2333 #define UPKHI 1
2334 #define UPKLO 0
2335 #else
2336 #define UPKHI 0
2337 #define UPKLO 1
2338 #endif
2339 #define VUPKPX(suffix, hi)                                      \
2340     void helper_vupk##suffix (ppc_avr_t *r, ppc_avr_t *b)       \
2341     {                                                           \
2342         int i;                                                  \
2343         ppc_avr_t result;                                       \
2344         for (i = 0; i < ARRAY_SIZE(r->u32); i++) {              \
2345             uint16_t e = b->u16[hi ? i : i+4];                  \
2346             uint8_t a = (e >> 15) ? 0xff : 0;                   \
2347             uint8_t r = (e >> 10) & 0x1f;                       \
2348             uint8_t g = (e >> 5) & 0x1f;                        \
2349             uint8_t b = e & 0x1f;                               \
2350             result.u32[i] = (a << 24) | (r << 16) | (g << 8) | b;       \
2351         }                                                               \
2352         *r = result;                                                    \
2353     }
2354 VUPKPX(lpx, UPKLO)
2355 VUPKPX(hpx, UPKHI)
2356 #undef VUPKPX
2357
2358 #define VUPK(suffix, unpacked, packee, hi)                              \
2359     void helper_vupk##suffix (ppc_avr_t *r, ppc_avr_t *b)               \
2360     {                                                                   \
2361         int i;                                                          \
2362         ppc_avr_t result;                                               \
2363         if (hi) {                                                       \
2364             for (i = 0; i < ARRAY_SIZE(r->unpacked); i++) {             \
2365                 result.unpacked[i] = b->packee[i];                      \
2366             }                                                           \
2367         } else {                                                        \
2368             for (i = ARRAY_SIZE(r->unpacked); i < ARRAY_SIZE(r->packee); i++) { \
2369                 result.unpacked[i-ARRAY_SIZE(r->unpacked)] = b->packee[i]; \
2370             }                                                           \
2371         }                                                               \
2372         *r = result;                                                    \
2373     }
2374 VUPK(hsb, s16, s8, UPKHI)
2375 VUPK(hsh, s32, s16, UPKHI)
2376 VUPK(lsb, s16, s8, UPKLO)
2377 VUPK(lsh, s32, s16, UPKLO)
2378 #undef VUPK
2379 #undef UPKHI
2380 #undef UPKLO
2381
2382 #undef VECTOR_FOR_INORDER_I
2383 #undef HI_IDX
2384 #undef LO_IDX
2385
2386 /*****************************************************************************/
2387 /* SPE extension helpers */
2388 /* Use a table to make this quicker */
2389 static uint8_t hbrev[16] = {
2390     0x0, 0x8, 0x4, 0xC, 0x2, 0xA, 0x6, 0xE,
2391     0x1, 0x9, 0x5, 0xD, 0x3, 0xB, 0x7, 0xF,
2392 };
2393
2394 static always_inline uint8_t byte_reverse (uint8_t val)
2395 {
2396     return hbrev[val >> 4] | (hbrev[val & 0xF] << 4);
2397 }
2398
2399 static always_inline uint32_t word_reverse (uint32_t val)
2400 {
2401     return byte_reverse(val >> 24) | (byte_reverse(val >> 16) << 8) |
2402         (byte_reverse(val >> 8) << 16) | (byte_reverse(val) << 24);
2403 }
2404
2405 #define MASKBITS 16 // Random value - to be fixed (implementation dependant)
2406 target_ulong helper_brinc (target_ulong arg1, target_ulong arg2)
2407 {
2408     uint32_t a, b, d, mask;
2409
2410     mask = UINT32_MAX >> (32 - MASKBITS);
2411     a = arg1 & mask;
2412     b = arg2 & mask;
2413     d = word_reverse(1 + word_reverse(a | ~b));
2414     return (arg1 & ~mask) | (d & b);
2415 }
2416
2417 uint32_t helper_cntlsw32 (uint32_t val)
2418 {
2419     if (val & 0x80000000)
2420         return clz32(~val);
2421     else
2422         return clz32(val);
2423 }
2424
2425 uint32_t helper_cntlzw32 (uint32_t val)
2426 {
2427     return clz32(val);
2428 }
2429
2430 /* Single-precision floating-point conversions */
2431 static always_inline uint32_t efscfsi (uint32_t val)
2432 {
2433     CPU_FloatU u;
2434
2435     u.f = int32_to_float32(val, &env->spe_status);
2436
2437     return u.l;
2438 }
2439
2440 static always_inline uint32_t efscfui (uint32_t val)
2441 {
2442     CPU_FloatU u;
2443
2444     u.f = uint32_to_float32(val, &env->spe_status);
2445
2446     return u.l;
2447 }
2448
2449 static always_inline int32_t efsctsi (uint32_t val)
2450 {
2451     CPU_FloatU u;
2452
2453     u.l = val;
2454     /* NaN are not treated the same way IEEE 754 does */
2455     if (unlikely(float32_is_nan(u.f)))
2456         return 0;
2457
2458     return float32_to_int32(u.f, &env->spe_status);
2459 }
2460
2461 static always_inline uint32_t efsctui (uint32_t val)
2462 {
2463     CPU_FloatU u;
2464
2465     u.l = val;
2466     /* NaN are not treated the same way IEEE 754 does */
2467     if (unlikely(float32_is_nan(u.f)))
2468         return 0;
2469
2470     return float32_to_uint32(u.f, &env->spe_status);
2471 }
2472
2473 static always_inline uint32_t efsctsiz (uint32_t val)
2474 {
2475     CPU_FloatU u;
2476
2477     u.l = val;
2478     /* NaN are not treated the same way IEEE 754 does */
2479     if (unlikely(float32_is_nan(u.f)))
2480         return 0;
2481
2482     return float32_to_int32_round_to_zero(u.f, &env->spe_status);
2483 }
2484
2485 static always_inline uint32_t efsctuiz (uint32_t val)
2486 {
2487     CPU_FloatU u;
2488
2489     u.l = val;
2490     /* NaN are not treated the same way IEEE 754 does */
2491     if (unlikely(float32_is_nan(u.f)))
2492         return 0;
2493
2494     return float32_to_uint32_round_to_zero(u.f, &env->spe_status);
2495 }
2496
2497 static always_inline uint32_t efscfsf (uint32_t val)
2498 {
2499     CPU_FloatU u;
2500     float32 tmp;
2501
2502     u.f = int32_to_float32(val, &env->spe_status);
2503     tmp = int64_to_float32(1ULL << 32, &env->spe_status);
2504     u.f = float32_div(u.f, tmp, &env->spe_status);
2505
2506     return u.l;
2507 }
2508
2509 static always_inline uint32_t efscfuf (uint32_t val)
2510 {
2511     CPU_FloatU u;
2512     float32 tmp;
2513
2514     u.f = uint32_to_float32(val, &env->spe_status);
2515     tmp = uint64_to_float32(1ULL << 32, &env->spe_status);
2516     u.f = float32_div(u.f, tmp, &env->spe_status);
2517
2518     return u.l;
2519 }
2520
2521 static always_inline uint32_t efsctsf (uint32_t val)
2522 {
2523     CPU_FloatU u;
2524     float32 tmp;
2525
2526     u.l = val;
2527     /* NaN are not treated the same way IEEE 754 does */
2528     if (unlikely(float32_is_nan(u.f)))
2529         return 0;
2530     tmp = uint64_to_float32(1ULL << 32, &env->spe_status);
2531     u.f = float32_mul(u.f, tmp, &env->spe_status);
2532
2533     return float32_to_int32(u.f, &env->spe_status);
2534 }
2535
2536 static always_inline uint32_t efsctuf (uint32_t val)
2537 {
2538     CPU_FloatU u;
2539     float32 tmp;
2540
2541     u.l = val;
2542     /* NaN are not treated the same way IEEE 754 does */
2543     if (unlikely(float32_is_nan(u.f)))
2544         return 0;
2545     tmp = uint64_to_float32(1ULL << 32, &env->spe_status);
2546     u.f = float32_mul(u.f, tmp, &env->spe_status);
2547
2548     return float32_to_uint32(u.f, &env->spe_status);
2549 }
2550
2551 #define HELPER_SPE_SINGLE_CONV(name)                                          \
2552 uint32_t helper_e##name (uint32_t val)                                        \
2553 {                                                                             \
2554     return e##name(val);                                                      \
2555 }
2556 /* efscfsi */
2557 HELPER_SPE_SINGLE_CONV(fscfsi);
2558 /* efscfui */
2559 HELPER_SPE_SINGLE_CONV(fscfui);
2560 /* efscfuf */
2561 HELPER_SPE_SINGLE_CONV(fscfuf);
2562 /* efscfsf */
2563 HELPER_SPE_SINGLE_CONV(fscfsf);
2564 /* efsctsi */
2565 HELPER_SPE_SINGLE_CONV(fsctsi);
2566 /* efsctui */
2567 HELPER_SPE_SINGLE_CONV(fsctui);
2568 /* efsctsiz */
2569 HELPER_SPE_SINGLE_CONV(fsctsiz);
2570 /* efsctuiz */
2571 HELPER_SPE_SINGLE_CONV(fsctuiz);
2572 /* efsctsf */
2573 HELPER_SPE_SINGLE_CONV(fsctsf);
2574 /* efsctuf */
2575 HELPER_SPE_SINGLE_CONV(fsctuf);
2576
2577 #define HELPER_SPE_VECTOR_CONV(name)                                          \
2578 uint64_t helper_ev##name (uint64_t val)                                       \
2579 {                                                                             \
2580     return ((uint64_t)e##name(val >> 32) << 32) |                             \
2581             (uint64_t)e##name(val);                                           \
2582 }
2583 /* evfscfsi */
2584 HELPER_SPE_VECTOR_CONV(fscfsi);
2585 /* evfscfui */
2586 HELPER_SPE_VECTOR_CONV(fscfui);
2587 /* evfscfuf */
2588 HELPER_SPE_VECTOR_CONV(fscfuf);
2589 /* evfscfsf */
2590 HELPER_SPE_VECTOR_CONV(fscfsf);
2591 /* evfsctsi */
2592 HELPER_SPE_VECTOR_CONV(fsctsi);
2593 /* evfsctui */
2594 HELPER_SPE_VECTOR_CONV(fsctui);
2595 /* evfsctsiz */
2596 HELPER_SPE_VECTOR_CONV(fsctsiz);
2597 /* evfsctuiz */
2598 HELPER_SPE_VECTOR_CONV(fsctuiz);
2599 /* evfsctsf */
2600 HELPER_SPE_VECTOR_CONV(fsctsf);
2601 /* evfsctuf */
2602 HELPER_SPE_VECTOR_CONV(fsctuf);
2603
2604 /* Single-precision floating-point arithmetic */
2605 static always_inline uint32_t efsadd (uint32_t op1, uint32_t op2)
2606 {
2607     CPU_FloatU u1, u2;
2608     u1.l = op1;
2609     u2.l = op2;
2610     u1.f = float32_add(u1.f, u2.f, &env->spe_status);
2611     return u1.l;
2612 }
2613
2614 static always_inline uint32_t efssub (uint32_t op1, uint32_t op2)
2615 {
2616     CPU_FloatU u1, u2;
2617     u1.l = op1;
2618     u2.l = op2;
2619     u1.f = float32_sub(u1.f, u2.f, &env->spe_status);
2620     return u1.l;
2621 }
2622
2623 static always_inline uint32_t efsmul (uint32_t op1, uint32_t op2)
2624 {
2625     CPU_FloatU u1, u2;
2626     u1.l = op1;
2627     u2.l = op2;
2628     u1.f = float32_mul(u1.f, u2.f, &env->spe_status);
2629     return u1.l;
2630 }
2631
2632 static always_inline uint32_t efsdiv (uint32_t op1, uint32_t op2)
2633 {
2634     CPU_FloatU u1, u2;
2635     u1.l = op1;
2636     u2.l = op2;
2637     u1.f = float32_div(u1.f, u2.f, &env->spe_status);
2638     return u1.l;
2639 }
2640
2641 #define HELPER_SPE_SINGLE_ARITH(name)                                         \
2642 uint32_t helper_e##name (uint32_t op1, uint32_t op2)                          \
2643 {                                                                             \
2644     return e##name(op1, op2);                                                 \
2645 }
2646 /* efsadd */
2647 HELPER_SPE_SINGLE_ARITH(fsadd);
2648 /* efssub */
2649 HELPER_SPE_SINGLE_ARITH(fssub);
2650 /* efsmul */
2651 HELPER_SPE_SINGLE_ARITH(fsmul);
2652 /* efsdiv */
2653 HELPER_SPE_SINGLE_ARITH(fsdiv);
2654
2655 #define HELPER_SPE_VECTOR_ARITH(name)                                         \
2656 uint64_t helper_ev##name (uint64_t op1, uint64_t op2)                         \
2657 {                                                                             \
2658     return ((uint64_t)e##name(op1 >> 32, op2 >> 32) << 32) |                  \
2659             (uint64_t)e##name(op1, op2);                                      \
2660 }
2661 /* evfsadd */
2662 HELPER_SPE_VECTOR_ARITH(fsadd);
2663 /* evfssub */
2664 HELPER_SPE_VECTOR_ARITH(fssub);
2665 /* evfsmul */
2666 HELPER_SPE_VECTOR_ARITH(fsmul);
2667 /* evfsdiv */
2668 HELPER_SPE_VECTOR_ARITH(fsdiv);
2669
2670 /* Single-precision floating-point comparisons */
2671 static always_inline uint32_t efststlt (uint32_t op1, uint32_t op2)
2672 {
2673     CPU_FloatU u1, u2;
2674     u1.l = op1;
2675     u2.l = op2;
2676     return float32_lt(u1.f, u2.f, &env->spe_status) ? 4 : 0;
2677 }
2678
2679 static always_inline uint32_t efststgt (uint32_t op1, uint32_t op2)
2680 {
2681     CPU_FloatU u1, u2;
2682     u1.l = op1;
2683     u2.l = op2;
2684     return float32_le(u1.f, u2.f, &env->spe_status) ? 0 : 4;
2685 }
2686
2687 static always_inline uint32_t efststeq (uint32_t op1, uint32_t op2)
2688 {
2689     CPU_FloatU u1, u2;
2690     u1.l = op1;
2691     u2.l = op2;
2692     return float32_eq(u1.f, u2.f, &env->spe_status) ? 4 : 0;
2693 }
2694
2695 static always_inline uint32_t efscmplt (uint32_t op1, uint32_t op2)
2696 {
2697     /* XXX: TODO: test special values (NaN, infinites, ...) */
2698     return efststlt(op1, op2);
2699 }
2700
2701 static always_inline uint32_t efscmpgt (uint32_t op1, uint32_t op2)
2702 {
2703     /* XXX: TODO: test special values (NaN, infinites, ...) */
2704     return efststgt(op1, op2);
2705 }
2706
2707 static always_inline uint32_t efscmpeq (uint32_t op1, uint32_t op2)
2708 {
2709     /* XXX: TODO: test special values (NaN, infinites, ...) */
2710     return efststeq(op1, op2);
2711 }
2712
2713 #define HELPER_SINGLE_SPE_CMP(name)                                           \
2714 uint32_t helper_e##name (uint32_t op1, uint32_t op2)                          \
2715 {                                                                             \
2716     return e##name(op1, op2) << 2;                                            \
2717 }
2718 /* efststlt */
2719 HELPER_SINGLE_SPE_CMP(fststlt);
2720 /* efststgt */
2721 HELPER_SINGLE_SPE_CMP(fststgt);
2722 /* efststeq */
2723 HELPER_SINGLE_SPE_CMP(fststeq);
2724 /* efscmplt */
2725 HELPER_SINGLE_SPE_CMP(fscmplt);
2726 /* efscmpgt */
2727 HELPER_SINGLE_SPE_CMP(fscmpgt);
2728 /* efscmpeq */
2729 HELPER_SINGLE_SPE_CMP(fscmpeq);
2730
2731 static always_inline uint32_t evcmp_merge (int t0, int t1)
2732 {
2733     return (t0 << 3) | (t1 << 2) | ((t0 | t1) << 1) | (t0 & t1);
2734 }
2735
2736 #define HELPER_VECTOR_SPE_CMP(name)                                           \
2737 uint32_t helper_ev##name (uint64_t op1, uint64_t op2)                         \
2738 {                                                                             \
2739     return evcmp_merge(e##name(op1 >> 32, op2 >> 32), e##name(op1, op2));     \
2740 }
2741 /* evfststlt */
2742 HELPER_VECTOR_SPE_CMP(fststlt);
2743 /* evfststgt */
2744 HELPER_VECTOR_SPE_CMP(fststgt);
2745 /* evfststeq */
2746 HELPER_VECTOR_SPE_CMP(fststeq);
2747 /* evfscmplt */
2748 HELPER_VECTOR_SPE_CMP(fscmplt);
2749 /* evfscmpgt */
2750 HELPER_VECTOR_SPE_CMP(fscmpgt);
2751 /* evfscmpeq */
2752 HELPER_VECTOR_SPE_CMP(fscmpeq);
2753
2754 /* Double-precision floating-point conversion */
2755 uint64_t helper_efdcfsi (uint32_t val)
2756 {
2757     CPU_DoubleU u;
2758
2759     u.d = int32_to_float64(val, &env->spe_status);
2760
2761     return u.ll;
2762 }
2763
2764 uint64_t helper_efdcfsid (uint64_t val)
2765 {
2766     CPU_DoubleU u;
2767
2768     u.d = int64_to_float64(val, &env->spe_status);
2769
2770     return u.ll;
2771 }
2772
2773 uint64_t helper_efdcfui (uint32_t val)
2774 {
2775     CPU_DoubleU u;
2776
2777     u.d = uint32_to_float64(val, &env->spe_status);
2778
2779     return u.ll;
2780 }
2781
2782 uint64_t helper_efdcfuid (uint64_t val)
2783 {
2784     CPU_DoubleU u;
2785
2786     u.d = uint64_to_float64(val, &env->spe_status);
2787
2788     return u.ll;
2789 }
2790
2791 uint32_t helper_efdctsi (uint64_t val)
2792 {
2793     CPU_DoubleU u;
2794
2795     u.ll = val;
2796     /* NaN are not treated the same way IEEE 754 does */
2797     if (unlikely(float64_is_nan(u.d)))
2798         return 0;
2799
2800     return float64_to_int32(u.d, &env->spe_status);
2801 }
2802
2803 uint32_t helper_efdctui (uint64_t val)
2804 {
2805     CPU_DoubleU u;
2806
2807     u.ll = val;
2808     /* NaN are not treated the same way IEEE 754 does */
2809     if (unlikely(float64_is_nan(u.d)))
2810         return 0;
2811
2812     return float64_to_uint32(u.d, &env->spe_status);
2813 }
2814
2815 uint32_t helper_efdctsiz (uint64_t val)
2816 {
2817     CPU_DoubleU u;
2818
2819     u.ll = val;
2820     /* NaN are not treated the same way IEEE 754 does */
2821     if (unlikely(float64_is_nan(u.d)))
2822         return 0;
2823
2824     return float64_to_int32_round_to_zero(u.d, &env->spe_status);
2825 }
2826
2827 uint64_t helper_efdctsidz (uint64_t val)
2828 {
2829     CPU_DoubleU u;
2830
2831     u.ll = val;
2832     /* NaN are not treated the same way IEEE 754 does */
2833     if (unlikely(float64_is_nan(u.d)))
2834         return 0;
2835
2836     return float64_to_int64_round_to_zero(u.d, &env->spe_status);
2837 }
2838
2839 uint32_t helper_efdctuiz (uint64_t val)
2840 {
2841     CPU_DoubleU u;
2842
2843     u.ll = val;
2844     /* NaN are not treated the same way IEEE 754 does */
2845     if (unlikely(float64_is_nan(u.d)))
2846         return 0;
2847
2848     return float64_to_uint32_round_to_zero(u.d, &env->spe_status);
2849 }
2850
2851 uint64_t helper_efdctuidz (uint64_t val)
2852 {
2853     CPU_DoubleU u;
2854
2855     u.ll = val;
2856     /* NaN are not treated the same way IEEE 754 does */
2857     if (unlikely(float64_is_nan(u.d)))
2858         return 0;
2859
2860     return float64_to_uint64_round_to_zero(u.d, &env->spe_status);
2861 }
2862
2863 uint64_t helper_efdcfsf (uint32_t val)
2864 {
2865     CPU_DoubleU u;
2866     float64 tmp;
2867
2868     u.d = int32_to_float64(val, &env->spe_status);
2869     tmp = int64_to_float64(1ULL << 32, &env->spe_status);
2870     u.d = float64_div(u.d, tmp, &env->spe_status);
2871
2872     return u.ll;
2873 }
2874
2875 uint64_t helper_efdcfuf (uint32_t val)
2876 {
2877     CPU_DoubleU u;
2878     float64 tmp;
2879
2880     u.d = uint32_to_float64(val, &env->spe_status);
2881     tmp = int64_to_float64(1ULL << 32, &env->spe_status);
2882     u.d = float64_div(u.d, tmp, &env->spe_status);
2883
2884     return u.ll;
2885 }
2886
2887 uint32_t helper_efdctsf (uint64_t val)
2888 {
2889     CPU_DoubleU u;
2890     float64 tmp;
2891
2892     u.ll = val;
2893     /* NaN are not treated the same way IEEE 754 does */
2894     if (unlikely(float64_is_nan(u.d)))
2895         return 0;
2896     tmp = uint64_to_float64(1ULL << 32, &env->spe_status);
2897     u.d = float64_mul(u.d, tmp, &env->spe_status);
2898
2899     return float64_to_int32(u.d, &env->spe_status);
2900 }
2901
2902 uint32_t helper_efdctuf (uint64_t val)
2903 {
2904     CPU_DoubleU u;
2905     float64 tmp;
2906
2907     u.ll = val;
2908     /* NaN are not treated the same way IEEE 754 does */
2909     if (unlikely(float64_is_nan(u.d)))
2910         return 0;
2911     tmp = uint64_to_float64(1ULL << 32, &env->spe_status);
2912     u.d = float64_mul(u.d, tmp, &env->spe_status);
2913
2914     return float64_to_uint32(u.d, &env->spe_status);
2915 }
2916
2917 uint32_t helper_efscfd (uint64_t val)
2918 {
2919     CPU_DoubleU u1;
2920     CPU_FloatU u2;
2921
2922     u1.ll = val;
2923     u2.f = float64_to_float32(u1.d, &env->spe_status);
2924
2925     return u2.l;
2926 }
2927
2928 uint64_t helper_efdcfs (uint32_t val)
2929 {
2930     CPU_DoubleU u2;
2931     CPU_FloatU u1;
2932
2933     u1.l = val;
2934     u2.d = float32_to_float64(u1.f, &env->spe_status);
2935
2936     return u2.ll;
2937 }
2938
2939 /* Double precision fixed-point arithmetic */
2940 uint64_t helper_efdadd (uint64_t op1, uint64_t op2)
2941 {
2942     CPU_DoubleU u1, u2;
2943     u1.ll = op1;
2944     u2.ll = op2;
2945     u1.d = float64_add(u1.d, u2.d, &env->spe_status);
2946     return u1.ll;
2947 }
2948
2949 uint64_t helper_efdsub (uint64_t op1, uint64_t op2)
2950 {
2951     CPU_DoubleU u1, u2;
2952     u1.ll = op1;
2953     u2.ll = op2;
2954     u1.d = float64_sub(u1.d, u2.d, &env->spe_status);
2955     return u1.ll;
2956 }
2957
2958 uint64_t helper_efdmul (uint64_t op1, uint64_t op2)
2959 {
2960     CPU_DoubleU u1, u2;
2961     u1.ll = op1;
2962     u2.ll = op2;
2963     u1.d = float64_mul(u1.d, u2.d, &env->spe_status);
2964     return u1.ll;
2965 }
2966
2967 uint64_t helper_efddiv (uint64_t op1, uint64_t op2)
2968 {
2969     CPU_DoubleU u1, u2;
2970     u1.ll = op1;
2971     u2.ll = op2;
2972     u1.d = float64_div(u1.d, u2.d, &env->spe_status);
2973     return u1.ll;
2974 }
2975
2976 /* Double precision floating point helpers */
2977 uint32_t helper_efdtstlt (uint64_t op1, uint64_t op2)
2978 {
2979     CPU_DoubleU u1, u2;
2980     u1.ll = op1;
2981     u2.ll = op2;
2982     return float64_lt(u1.d, u2.d, &env->spe_status) ? 4 : 0;
2983 }
2984
2985 uint32_t helper_efdtstgt (uint64_t op1, uint64_t op2)
2986 {
2987     CPU_DoubleU u1, u2;
2988     u1.ll = op1;
2989     u2.ll = op2;
2990     return float64_le(u1.d, u2.d, &env->spe_status) ? 0 : 4;
2991 }
2992
2993 uint32_t helper_efdtsteq (uint64_t op1, uint64_t op2)
2994 {
2995     CPU_DoubleU u1, u2;
2996     u1.ll = op1;
2997     u2.ll = op2;
2998     return float64_eq(u1.d, u2.d, &env->spe_status) ? 4 : 0;
2999 }
3000
3001 uint32_t helper_efdcmplt (uint64_t op1, uint64_t op2)
3002 {
3003     /* XXX: TODO: test special values (NaN, infinites, ...) */
3004     return helper_efdtstlt(op1, op2);
3005 }
3006
3007 uint32_t helper_efdcmpgt (uint64_t op1, uint64_t op2)
3008 {
3009     /* XXX: TODO: test special values (NaN, infinites, ...) */
3010     return helper_efdtstgt(op1, op2);
3011 }
3012
3013 uint32_t helper_efdcmpeq (uint64_t op1, uint64_t op2)
3014 {
3015     /* XXX: TODO: test special values (NaN, infinites, ...) */
3016     return helper_efdtsteq(op1, op2);
3017 }
3018
3019 /*****************************************************************************/
3020 /* Softmmu support */
3021 #if !defined (CONFIG_USER_ONLY)
3022
3023 #define MMUSUFFIX _mmu
3024
3025 #define SHIFT 0
3026 #include "softmmu_template.h"
3027
3028 #define SHIFT 1
3029 #include "softmmu_template.h"
3030
3031 #define SHIFT 2
3032 #include "softmmu_template.h"
3033
3034 #define SHIFT 3
3035 #include "softmmu_template.h"
3036
3037 /* try to fill the TLB and return an exception if error. If retaddr is
3038    NULL, it means that the function was called in C code (i.e. not
3039    from generated code or from helper.c) */
3040 /* XXX: fix it to restore all registers */
3041 void tlb_fill (target_ulong addr, int is_write, int mmu_idx, void *retaddr)
3042 {
3043     TranslationBlock *tb;
3044     CPUState *saved_env;
3045     unsigned long pc;
3046     int ret;
3047
3048     /* XXX: hack to restore env in all cases, even if not called from
3049        generated code */
3050     saved_env = env;
3051     env = cpu_single_env;
3052     ret = cpu_ppc_handle_mmu_fault(env, addr, is_write, mmu_idx, 1);
3053     if (unlikely(ret != 0)) {
3054         if (likely(retaddr)) {
3055             /* now we have a real cpu fault */
3056             pc = (unsigned long)retaddr;
3057             tb = tb_find_pc(pc);
3058             if (likely(tb)) {
3059                 /* the PC is inside the translated code. It means that we have
3060                    a virtual CPU fault */
3061                 cpu_restore_state(tb, env, pc, NULL);
3062             }
3063         }
3064         helper_raise_exception_err(env->exception_index, env->error_code);
3065     }
3066     env = saved_env;
3067 }
3068
3069 /* Segment registers load and store */
3070 target_ulong helper_load_sr (target_ulong sr_num)
3071 {
3072     return env->sr[sr_num];
3073 }
3074
3075 void helper_store_sr (target_ulong sr_num, target_ulong val)
3076 {
3077     ppc_store_sr(env, sr_num, val);
3078 }
3079
3080 /* SLB management */
3081 #if defined(TARGET_PPC64)
3082 target_ulong helper_load_slb (target_ulong slb_nr)
3083 {
3084     return ppc_load_slb(env, slb_nr);
3085 }
3086
3087 void helper_store_slb (target_ulong slb_nr, target_ulong rs)
3088 {
3089     ppc_store_slb(env, slb_nr, rs);
3090 }
3091
3092 void helper_slbia (void)
3093 {
3094     ppc_slb_invalidate_all(env);
3095 }
3096
3097 void helper_slbie (target_ulong addr)
3098 {
3099     ppc_slb_invalidate_one(env, addr);
3100 }
3101
3102 #endif /* defined(TARGET_PPC64) */
3103
3104 /* TLB management */
3105 void helper_tlbia (void)
3106 {
3107     ppc_tlb_invalidate_all(env);
3108 }
3109
3110 void helper_tlbie (target_ulong addr)
3111 {
3112     ppc_tlb_invalidate_one(env, addr);
3113 }
3114
3115 /* Software driven TLBs management */
3116 /* PowerPC 602/603 software TLB load instructions helpers */
3117 static void do_6xx_tlb (target_ulong new_EPN, int is_code)
3118 {
3119     target_ulong RPN, CMP, EPN;
3120     int way;
3121
3122     RPN = env->spr[SPR_RPA];
3123     if (is_code) {
3124         CMP = env->spr[SPR_ICMP];
3125         EPN = env->spr[SPR_IMISS];
3126     } else {
3127         CMP = env->spr[SPR_DCMP];
3128         EPN = env->spr[SPR_DMISS];
3129     }
3130     way = (env->spr[SPR_SRR1] >> 17) & 1;
3131 #if defined (DEBUG_SOFTWARE_TLB)
3132     if (loglevel != 0) {
3133         fprintf(logfile, "%s: EPN " ADDRX " " ADDRX " PTE0 " ADDRX
3134                 " PTE1 " ADDRX " way %d\n",
3135                 __func__, new_EPN, EPN, CMP, RPN, way);
3136     }
3137 #endif
3138     /* Store this TLB */
3139     ppc6xx_tlb_store(env, (uint32_t)(new_EPN & TARGET_PAGE_MASK),
3140                      way, is_code, CMP, RPN);
3141 }
3142
3143 void helper_6xx_tlbd (target_ulong EPN)
3144 {
3145     do_6xx_tlb(EPN, 0);
3146 }
3147
3148 void helper_6xx_tlbi (target_ulong EPN)
3149 {
3150     do_6xx_tlb(EPN, 1);
3151 }
3152
3153 /* PowerPC 74xx software TLB load instructions helpers */
3154 static void do_74xx_tlb (target_ulong new_EPN, int is_code)
3155 {
3156     target_ulong RPN, CMP, EPN;
3157     int way;
3158
3159     RPN = env->spr[SPR_PTELO];
3160     CMP = env->spr[SPR_PTEHI];
3161     EPN = env->spr[SPR_TLBMISS] & ~0x3;
3162     way = env->spr[SPR_TLBMISS] & 0x3;
3163 #if defined (DEBUG_SOFTWARE_TLB)
3164     if (loglevel != 0) {
3165         fprintf(logfile, "%s: EPN " ADDRX " " ADDRX " PTE0 " ADDRX
3166                 " PTE1 " ADDRX " way %d\n",
3167                 __func__, new_EPN, EPN, CMP, RPN, way);
3168     }
3169 #endif
3170     /* Store this TLB */
3171     ppc6xx_tlb_store(env, (uint32_t)(new_EPN & TARGET_PAGE_MASK),
3172                      way, is_code, CMP, RPN);
3173 }
3174
3175 void helper_74xx_tlbd (target_ulong EPN)
3176 {
3177     do_74xx_tlb(EPN, 0);
3178 }
3179
3180 void helper_74xx_tlbi (target_ulong EPN)
3181 {
3182     do_74xx_tlb(EPN, 1);
3183 }
3184
3185 static always_inline target_ulong booke_tlb_to_page_size (int size)
3186 {
3187     return 1024 << (2 * size);
3188 }
3189
3190 static always_inline int booke_page_size_to_tlb (target_ulong page_size)
3191 {
3192     int size;
3193
3194     switch (page_size) {
3195     case 0x00000400UL:
3196         size = 0x0;
3197         break;
3198     case 0x00001000UL:
3199         size = 0x1;
3200         break;
3201     case 0x00004000UL:
3202         size = 0x2;
3203         break;
3204     case 0x00010000UL:
3205         size = 0x3;
3206         break;
3207     case 0x00040000UL:
3208         size = 0x4;
3209         break;
3210     case 0x00100000UL:
3211         size = 0x5;
3212         break;
3213     case 0x00400000UL:
3214         size = 0x6;
3215         break;
3216     case 0x01000000UL:
3217         size = 0x7;
3218         break;
3219     case 0x04000000UL:
3220         size = 0x8;
3221         break;
3222     case 0x10000000UL:
3223         size = 0x9;
3224         break;
3225     case 0x40000000UL:
3226         size = 0xA;
3227         break;
3228 #if defined (TARGET_PPC64)
3229     case 0x000100000000ULL:
3230         size = 0xB;
3231         break;
3232     case 0x000400000000ULL:
3233         size = 0xC;
3234         break;
3235     case 0x001000000000ULL:
3236         size = 0xD;
3237         break;
3238     case 0x004000000000ULL:
3239         size = 0xE;
3240         break;
3241     case 0x010000000000ULL:
3242         size = 0xF;
3243         break;
3244 #endif
3245     default:
3246         size = -1;
3247         break;
3248     }
3249
3250     return size;
3251 }
3252
3253 /* Helpers for 4xx TLB management */
3254 target_ulong helper_4xx_tlbre_lo (target_ulong entry)
3255 {
3256     ppcemb_tlb_t *tlb;
3257     target_ulong ret;
3258     int size;
3259
3260     entry &= 0x3F;
3261     tlb = &env->tlb[entry].tlbe;
3262     ret = tlb->EPN;
3263     if (tlb->prot & PAGE_VALID)
3264         ret |= 0x400;
3265     size = booke_page_size_to_tlb(tlb->size);
3266     if (size < 0 || size > 0x7)
3267         size = 1;
3268     ret |= size << 7;
3269     env->spr[SPR_40x_PID] = tlb->PID;
3270     return ret;
3271 }
3272
3273 target_ulong helper_4xx_tlbre_hi (target_ulong entry)
3274 {
3275     ppcemb_tlb_t *tlb;
3276     target_ulong ret;
3277
3278     entry &= 0x3F;
3279     tlb = &env->tlb[entry].tlbe;
3280     ret = tlb->RPN;
3281     if (tlb->prot & PAGE_EXEC)
3282         ret |= 0x200;
3283     if (tlb->prot & PAGE_WRITE)
3284         ret |= 0x100;
3285     return ret;
3286 }
3287
3288 void helper_4xx_tlbwe_hi (target_ulong entry, target_ulong val)
3289 {
3290     ppcemb_tlb_t *tlb;
3291     target_ulong page, end;
3292
3293 #if defined (DEBUG_SOFTWARE_TLB)
3294     if (loglevel != 0) {
3295         fprintf(logfile, "%s entry %d val " ADDRX "\n", __func__, (int)entry, val);
3296     }
3297 #endif
3298     entry &= 0x3F;
3299     tlb = &env->tlb[entry].tlbe;
3300     /* Invalidate previous TLB (if it's valid) */
3301     if (tlb->prot & PAGE_VALID) {
3302         end = tlb->EPN + tlb->size;
3303 #if defined (DEBUG_SOFTWARE_TLB)
3304         if (loglevel != 0) {
3305             fprintf(logfile, "%s: invalidate old TLB %d start " ADDRX
3306                     " end " ADDRX "\n", __func__, (int)entry, tlb->EPN, end);
3307         }
3308 #endif
3309         for (page = tlb->EPN; page < end; page += TARGET_PAGE_SIZE)
3310             tlb_flush_page(env, page);
3311     }
3312     tlb->size = booke_tlb_to_page_size((val >> 7) & 0x7);
3313     /* We cannot handle TLB size < TARGET_PAGE_SIZE.
3314      * If this ever occurs, one should use the ppcemb target instead
3315      * of the ppc or ppc64 one
3316      */
3317     if ((val & 0x40) && tlb->size < TARGET_PAGE_SIZE) {
3318         cpu_abort(env, "TLB size " TARGET_FMT_lu " < %u "
3319                   "are not supported (%d)\n",
3320                   tlb->size, TARGET_PAGE_SIZE, (int)((val >> 7) & 0x7));
3321     }
3322     tlb->EPN = val & ~(tlb->size - 1);
3323     if (val & 0x40)
3324         tlb->prot |= PAGE_VALID;
3325     else
3326         tlb->prot &= ~PAGE_VALID;
3327     if (val & 0x20) {
3328         /* XXX: TO BE FIXED */
3329         cpu_abort(env, "Little-endian TLB entries are not supported by now\n");
3330     }
3331     tlb->PID = env->spr[SPR_40x_PID]; /* PID */
3332     tlb->attr = val & 0xFF;
3333 #if defined (DEBUG_SOFTWARE_TLB)
3334     if (loglevel != 0) {
3335         fprintf(logfile, "%s: set up TLB %d RPN " PADDRX " EPN " ADDRX
3336                 " size " ADDRX " prot %c%c%c%c PID %d\n", __func__,
3337                 (int)entry, tlb->RPN, tlb->EPN, tlb->size,
3338                 tlb->prot & PAGE_READ ? 'r' : '-',
3339                 tlb->prot & PAGE_WRITE ? 'w' : '-',
3340                 tlb->prot & PAGE_EXEC ? 'x' : '-',
3341                 tlb->prot & PAGE_VALID ? 'v' : '-', (int)tlb->PID);
3342     }
3343 #endif
3344     /* Invalidate new TLB (if valid) */
3345     if (tlb->prot & PAGE_VALID) {
3346         end = tlb->EPN + tlb->size;
3347 #if defined (DEBUG_SOFTWARE_TLB)
3348         if (loglevel != 0) {
3349             fprintf(logfile, "%s: invalidate TLB %d start " ADDRX
3350                     " end " ADDRX "\n", __func__, (int)entry, tlb->EPN, end);
3351         }
3352 #endif
3353         for (page = tlb->EPN; page < end; page += TARGET_PAGE_SIZE)
3354             tlb_flush_page(env, page);
3355     }
3356 }
3357
3358 void helper_4xx_tlbwe_lo (target_ulong entry, target_ulong val)
3359 {
3360     ppcemb_tlb_t *tlb;
3361
3362 #if defined (DEBUG_SOFTWARE_TLB)
3363     if (loglevel != 0) {
3364         fprintf(logfile, "%s entry %i val " ADDRX "\n", __func__, (int)entry, val);
3365     }
3366 #endif
3367     entry &= 0x3F;
3368     tlb = &env->tlb[entry].tlbe;
3369     tlb->RPN = val & 0xFFFFFC00;
3370     tlb->prot = PAGE_READ;
3371     if (val & 0x200)
3372         tlb->prot |= PAGE_EXEC;
3373     if (val & 0x100)
3374         tlb->prot |= PAGE_WRITE;
3375 #if defined (DEBUG_SOFTWARE_TLB)
3376     if (loglevel != 0) {
3377         fprintf(logfile, "%s: set up TLB %d RPN " PADDRX " EPN " ADDRX
3378                 " size " ADDRX " prot %c%c%c%c PID %d\n", __func__,
3379                 (int)entry, tlb->RPN, tlb->EPN, tlb->size,
3380                 tlb->prot & PAGE_READ ? 'r' : '-',
3381                 tlb->prot & PAGE_WRITE ? 'w' : '-',
3382                 tlb->prot & PAGE_EXEC ? 'x' : '-',
3383                 tlb->prot & PAGE_VALID ? 'v' : '-', (int)tlb->PID);
3384     }
3385 #endif
3386 }
3387
3388 target_ulong helper_4xx_tlbsx (target_ulong address)
3389 {
3390     return ppcemb_tlb_search(env, address, env->spr[SPR_40x_PID]);
3391 }
3392
3393 /* PowerPC 440 TLB management */
3394 void helper_440_tlbwe (uint32_t word, target_ulong entry, target_ulong value)
3395 {
3396     ppcemb_tlb_t *tlb;
3397     target_ulong EPN, RPN, size;
3398     int do_flush_tlbs;
3399
3400 #if defined (DEBUG_SOFTWARE_TLB)
3401     if (loglevel != 0) {
3402         fprintf(logfile, "%s word %d entry %d value " ADDRX "\n",
3403                 __func__, word, (int)entry, value);
3404     }
3405 #endif
3406     do_flush_tlbs = 0;
3407     entry &= 0x3F;
3408     tlb = &env->tlb[entry].tlbe;
3409     switch (word) {
3410     default:
3411         /* Just here to please gcc */
3412     case 0:
3413         EPN = value & 0xFFFFFC00;
3414         if ((tlb->prot & PAGE_VALID) && EPN != tlb->EPN)
3415             do_flush_tlbs = 1;
3416         tlb->EPN = EPN;
3417         size = booke_tlb_to_page_size((value >> 4) & 0xF);
3418         if ((tlb->prot & PAGE_VALID) && tlb->size < size)
3419             do_flush_tlbs = 1;
3420         tlb->size = size;
3421         tlb->attr &= ~0x1;
3422         tlb->attr |= (value >> 8) & 1;
3423         if (value & 0x200) {
3424             tlb->prot |= PAGE_VALID;
3425         } else {
3426             if (tlb->prot & PAGE_VALID) {
3427                 tlb->prot &= ~PAGE_VALID;
3428                 do_flush_tlbs = 1;
3429             }
3430         }
3431         tlb->PID = env->spr[SPR_440_MMUCR] & 0x000000FF;
3432         if (do_flush_tlbs)
3433             tlb_flush(env, 1);
3434         break;
3435     case 1:
3436         RPN = value & 0xFFFFFC0F;
3437         if ((tlb->prot & PAGE_VALID) && tlb->RPN != RPN)
3438             tlb_flush(env, 1);
3439         tlb->RPN = RPN;
3440         break;
3441     case 2:
3442         tlb->attr = (tlb->attr & 0x1) | (value & 0x0000FF00);
3443         tlb->prot = tlb->prot & PAGE_VALID;
3444         if (value & 0x1)
3445             tlb->prot |= PAGE_READ << 4;
3446         if (value & 0x2)
3447             tlb->prot |= PAGE_WRITE << 4;
3448         if (value & 0x4)
3449             tlb->prot |= PAGE_EXEC << 4;
3450         if (value & 0x8)
3451             tlb->prot |= PAGE_READ;
3452         if (value & 0x10)
3453             tlb->prot |= PAGE_WRITE;
3454         if (value & 0x20)
3455             tlb->prot |= PAGE_EXEC;
3456         break;
3457     }
3458 }
3459
3460 target_ulong helper_440_tlbre (uint32_t word, target_ulong entry)
3461 {
3462     ppcemb_tlb_t *tlb;
3463     target_ulong ret;
3464     int size;
3465
3466     entry &= 0x3F;
3467     tlb = &env->tlb[entry].tlbe;
3468     switch (word) {
3469     default:
3470         /* Just here to please gcc */
3471     case 0:
3472         ret = tlb->EPN;
3473         size = booke_page_size_to_tlb(tlb->size);
3474         if (size < 0 || size > 0xF)
3475             size = 1;
3476         ret |= size << 4;
3477         if (tlb->attr & 0x1)
3478             ret |= 0x100;
3479         if (tlb->prot & PAGE_VALID)
3480             ret |= 0x200;
3481         env->spr[SPR_440_MMUCR] &= ~0x000000FF;
3482         env->spr[SPR_440_MMUCR] |= tlb->PID;
3483         break;
3484     case 1:
3485         ret = tlb->RPN;
3486         break;
3487     case 2:
3488         ret = tlb->attr & ~0x1;
3489         if (tlb->prot & (PAGE_READ << 4))
3490             ret |= 0x1;
3491         if (tlb->prot & (PAGE_WRITE << 4))
3492             ret |= 0x2;
3493         if (tlb->prot & (PAGE_EXEC << 4))
3494             ret |= 0x4;
3495         if (tlb->prot & PAGE_READ)
3496             ret |= 0x8;
3497         if (tlb->prot & PAGE_WRITE)
3498             ret |= 0x10;
3499         if (tlb->prot & PAGE_EXEC)
3500             ret |= 0x20;
3501         break;
3502     }
3503     return ret;
3504 }
3505
3506 target_ulong helper_440_tlbsx (target_ulong address)
3507 {
3508     return ppcemb_tlb_search(env, address, env->spr[SPR_440_MMUCR] & 0xFF);
3509 }
3510
3511 #endif /* !CONFIG_USER_ONLY */