Decimal, Float und Double

Decimal vs Double vs Float

Die Variablentypen Decimal, Double und Float unterscheiden sich in der Art, wie sie die Werte speichern. Die Präzision ist der Hauptunterschied, wobei Float ein Gleitkommadatentyp mit einfacher Präzision (32 Bit) ist, Double ein Gleitkommadatentyp mit doppelter Präzision (64 Bit) und Decimal ein Gleitkommadatentyp mit 128 Bit.

Float – 32 Bit (7 Ziffern)

Double – 64 Bit (15-16 Ziffern)

Decimal – 128 Bit (28-29 signifikante Ziffern)

Unterschied zwischen Decimal, Float und Double

Der Hauptunterschied besteht darin, dass Floats und Doubles binäre Fließkomma-Typen sind, während Decimal den Wert als einen Fließkomma-Typ speichert. Dezimalzahlen haben also eine viel höhere Präzision und werden in der Regel in monetären (finanziellen) Anwendungen verwendet, die ein hohes Maß an Genauigkeit erfordern. In Bezug auf die Leistung sind Dezimalzahlen jedoch langsamer als Double- und Float-Typen.

Decimal kann jede Zahl innerhalb der Genauigkeit des Dezimalformats zu 100 % genau darstellen, während Float und Double nicht alle Zahlen genau darstellen können, selbst Zahlen, die innerhalb der Genauigkeit ihrer jeweiligen Formate liegen.

When To Use Decimal, Double, and Float

Decimal

Im Falle von Finanzanwendungen ist es besser, Dezimaltypen zu verwenden, da sie ein hohes Maß an Genauigkeit bieten und Rundungsfehler leicht zu vermeiden sind

Double

Double-Typen sind wahrscheinlich der am häufigsten verwendete Datentyp für reale Werte, außer beim Umgang mit Geld.

Float

Es wird vor allem in Grafikbibliotheken verwendet, da es sehr hohe Anforderungen an die Verarbeitungsleistung stellt, auch in Situationen, die Rundungsfehler vertragen können.

NEXT…..String to DateTime

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.