Flutuar

Definição - O que significa Float?

Na ciência da computação, um float é um tipo de dado composto por um número que não é inteiro, pois inclui uma fração representada em formato decimal.

Uma das definições mais comuns fornecidas por especialistas é que um float "tem números em ambos os lados do decimal". No entanto, pode ser mais simples dizer que o float inclui frações decimais, enquanto o inteiro não.

Alguns apontam que o tipo de dado float é usado na programação de computadores quando é necessária mais precisão do que os inteiros podem fornecer.

Definirtec explica Float

Desde os primeiros dias da programação de computadores, os flutuadores forneceram a capacidade de armazenar números, incluindo frações decimais como tipos de dados. Compreender a natureza do float é vital na conversão de tipo, na declaração de variáveis ​​e no uso de variáveis ​​dentro de uma base de código.

Se os tipos de dados não forem tratados corretamente, podem ocorrer erros.

Os primeiros exemplos de uso do float incluem FORTRAN, onde o tipo de dados float era conhecido como "precisão dupla"

Havia também um tipo de dados “real” indicando um número de ponto flutuante de precisão única.

Outra linguagem antiga que utilizava o float era o COBOL, que ainda é muito usado por muitas instituições, simplesmente por causa da aversão à migração de sistemas legados. Um artigo do Medium falando sobre o uso generalizado de COBOL apresenta um excelente ponto sobre como os tipos de dados flutuantes podem ser valiosos no software.

Para um exemplo direto, vamos pensar em um programa de dados do IRS e se ele usaria um float ou não.

Se os requisitos do IRS não exigem relatórios de uma parte de um dólar, um formato inteiro é totalmente suficiente. As variáveis ​​podem ser inteiras e a apresentação flutuante pode ser evitada, facilitando algumas eficiências no código.

Por outro lado, onde o programa precisaria relatar uma parte de um dólar, os programadores precisariam declarar uma variável como um float e manter os dólares e os centavos de acordo com o formato decimal. Por exemplo, uma variável float de $ 10.50 seria declarada com o conteúdo 10.5.

Agora, considere se os tipos de dados não estão corretos. Se o programa está tentando manter 10.5 como um inteiro, ele pode conter "10" ou gerar um erro. Os parâmetros precisam ser projetados de acordo com os dados reais que serão implantados e os procedimentos que serão implantados no sistema.

Ao longo dos anos, como a programação de computador envolvia, o uso de flutuadores e outros tipos de dados foram otimizados para vários tipos de uso de memória. No entanto, voltando ao artigo COBOL de Marianne Bellotti, permanece o ponto que acomodar variáveis ​​float dá trabalho e pode levar a todos os tipos de debates sobre a melhor linguagem de programação ou ambiente para um determinado sistema.

Na época dos contêineres e das máquinas virtuais, parece altamente contra-intuitivo que uma base de código em execução nesses ambientes não tivesse a capacidade de lidar com números decimais, mas os programadores terão que fazer as avaliações e tomar as decisões corretas em:

  • Projetando novos sistemas.
  • Migrando sistemas legados.
  • Ou em fazer manutenção de rotina em sistemas que usam este tipo de dados.

Esta definição foi escrita no contexto da Ciência da Computação