uni

esempio per

se guardiamo i numeri in scala logaritmica sarebbero equispaziati.
In ogni intervallo ho numeri di macchina che hanno esponente e variano solo di mantissa.

Minimo Numero Rappresentabile:
Massimo Numero Rappresentabile:
Quanti sono i numeri di Macchina in Binario:

Rappresentazioni più comuni (Standard IEEE)

Memoria
Precisione Singola224-12512832
Precisione doppia253-1021102464
Ci potremmo chiedere come mai assume valori non ovvi (-125 invece di -128? ecc), questo perché alcuni valori per l’esponente sono considerati speciali, uno rappresenta , uno ed infine uno comunica che i numeri che stiamo analizzando sono [[#numeri-sottonormalizzatiNumeri Sottonormalizzati]].

La IEEE sta lavorando alla standardizzazione dei numeri reali in virgola mobile su 8 bit, ma è possibile che float8 abbia diverse versioni, con K = 3,4 o 5, quest’ultima sarebbe nell’interesse della comunità del machine learning.

Approssimazione

In genere ci viene fornito , in particolare ricadiamo in una di queste tre possibilità:

  1. : overflow
  2. : underflow
  3. : arrotondamento

Definiamo allora una funzione tale che: e

Troncamento Round-Down

vale la seguente disuguaglianza:

Troncamento Round-Up

Round-to-Nearest

vale quanto segue:

Precisazioni sui numeri in virgola mobile

  • Errore Assoluto:
  • Errore Relativo:
  • Precisione di Macchina:
    • single precision:
    • double precision:
      I numeri in virgola mobile garantiscono un errore relativo limitato in modo uniforme (salvo over/under-flow).

Implementazione

segnomantissaesponenteUMemoria
Precisione Singola224-125128123832
Precisione doppia253-102110241521164
Precisione Quadrupla2113-1638116384111215128

Numeri Sottonormalizzati

Per numeri compresi in , possiamo utilizzare la sottonormalizzazione, ovvero tramite un valore speciale di indichiamo alla macchina che il numero è sottonormalizzato, e questa lo intenderà diversamente:
significa che implicitamente e e si usano le restanti cifre della Mantissa.

Così facendo ottengo valori equispaziati fra e con distanza .
Notiamo però che così facendo, più ci avviciniamo allo e più aumenta l’errore relativo .