Um número na matemática é diferente de um número na computação. Esse é o argumento. Nem todas as operações um número na matemática podem ser feitas em um número na computação porque ele representa algo, ele mapeia algo.
E quando você faz verificação de erros, você não trata o dado como o que ele representa, mas como um fluxo de bits. Ao criar uma conexão TCP, a verificação de erros não quer saber se estou fazendo um HTTP, se é um REST, se é um SSL, TLS, etc...
O mesmo dado é tratado de diversas formas. O mesmo byte hora pode fazer parte de um inteiro, pode fazer parte de um ponto flutuante, pode passar pelo BASE 64 e virar um string, etc...
Aqui eu discordo. Você pode bater em limite de memória/espaco endereçável, mas você consegue fazer qqr operação numérica discreta com um computador.
E obviamente aqui não vamos ficar limitados aos tipos do processador, pq aí sim é mais limitado
Comments
Especificamente racionais em notação científica com expoente e mantissa inteiros.
Exemplo: um id é um número, mas não faz sentido ver a paridade de um id. 🤷♀️
(Completamente off-topic, mas paridade de ids é um conceito que pode fazer sentido em códigos verificadores de erros)
E obviamente aqui não vamos ficar limitados aos tipos do processador, pq aí sim é mais limitado