Decimal, Float und Double
Decimal vs Double vs Float
Die Variablentypen Decimal, Double und Float unterscheiden sich in der Art, wie sie die Werte speichern. Die Präzision ist der Hauptunterschied, wobei Float ein Gleitkommadatentyp mit einfacher Präzision (32 Bit) ist, Double ein Gleitkommadatentyp mit doppelter Präzision (64 Bit) und Decimal ein Gleitkommadatentyp mit 128 Bit.
Float – 32 Bit (7 Ziffern)
Double – 64 Bit (15-16 Ziffern)
Decimal – 128 Bit (28-29 signifikante Ziffern)
Unterschied zwischen Decimal, Float und Double
Der Hauptunterschied besteht darin, dass Floats und Doubles binäre Fließkomma-Typen sind, während Decimal den Wert als einen Fließkomma-Typ speichert. Dezimalzahlen haben also eine viel höhere Präzision und werden in der Regel in monetären (finanziellen) Anwendungen verwendet, die ein hohes Maß an Genauigkeit erfordern. In Bezug auf die Leistung sind Dezimalzahlen jedoch langsamer als Double- und Float-Typen.
Decimal kann jede Zahl innerhalb der Genauigkeit des Dezimalformats zu 100 % genau darstellen, während Float und Double nicht alle Zahlen genau darstellen können, selbst Zahlen, die innerhalb der Genauigkeit ihrer jeweiligen Formate liegen.
When To Use Decimal, Double, and Float
Decimal
Im Falle von Finanzanwendungen ist es besser, Dezimaltypen zu verwenden, da sie ein hohes Maß an Genauigkeit bieten und Rundungsfehler leicht zu vermeiden sind
Double
Double-Typen sind wahrscheinlich der am häufigsten verwendete Datentyp für reale Werte, außer beim Umgang mit Geld.
Float
Es wird vor allem in Grafikbibliotheken verwendet, da es sehr hohe Anforderungen an die Verarbeitungsleistung stellt, auch in Situationen, die Rundungsfehler vertragen können.
NEXT…..String to DateTime