Um grupo de pesquisadores de uma universidade dinamarquesa desenvolveu um modelo chamado “calculadora da morte”, um algoritmo para prever as fases da vida até o seu fim e que busca mostrar os riscos do uso comercial desses dados.
Especificamente, o ‘life2vec’ usa um modelo semelhante ao ChatGPT, mas em vez de processar dados textuais, analisa estatísticas como nascimento, estudos, benefícios sociais e horas de trabalho.
“De certo ponto de vista, a vida é apenas uma sucessão de acontecimentos: as pessoas nascem, vão ao pediatra, vão à escola, mudam de casa, se casam”, afirma o estudo.
“Nós exploramos essa semelhança aqui para adaptar as inovações do processamento automático da linguagem natural à análise da evolução e previsibilidade das vidas humanas com base em sequências de eventos detalhados”, destaca.
– Milhões de pessoas analisadas –
O modelo é baseado em dados anônimos de milhões de dinamarqueses, recolhidos pelo Instituto Nacional de Estatística deste país nórdico.
A análise das sequências torna mais fácil prever o que acontecerá até o final. Em relação à morte, o algoritmo acerta em 78% dos casos, e em relação às migrações, em 73%.
“Com uma amostra de pessoas entre 35 e 65 anos, procuramos prever com base em um período de oito anos, de 2008 a 2016, se a pessoa vai morrer nos próximos quatro anos, até 2020. O modelo faz isso muito bem, melhor do que qualquer outro algoritmo”, diz Lehmann, que não usa sua fórmula em casos pessoais.
Essa faixa etária, em que os óbitos costumam ser poucos, facilita, segundo os pesquisadores, a verificação da confiabilidade do programa.
Mas o instrumento não está pronto para ser utilizado pelo público em geral. “Por enquanto é um projeto de pesquisa que explora o campo das possibilidades (…), e não sabemos se trata todos da mesma maneira!”, explica.
O efeito a longo prazo, as conexões sociais e a possibilidade de prever o curso da vida ainda precisam de ser estudados.
– Contrapeso –
Para o universitário, o projeto apresenta um contrapeso científico aos algoritmos desenvolvidos por gigantes como Google, Apple, Facebook, Amazon e Microsoft.
“Eles também podem construir modelos do mesmo tipo, mas não os tornam públicos nem falam sobre eles”, afirma. “Podemos presumir que eles os aperfeiçoariam apenas para nos fazer comprar mais produtos”, acrescenta.
Para ele, é “importante ter um contrapeso público e aberto para começar a entender o que pode ser feito com dados desse tipo”.
E muito mais porque algoritmos deste tipo certamente já são utilizados na área de seguros, indica a especialista em ética Pernille Tranberg.
“Eles certamente nos colocaram em grupos (…) e isso pode ser usado contra nós porque podem nos forçar a pagar um seguro mais alto, ou rejeitar um empréstimo nosso no banco ou o acesso a cuidados médicos públicos porque nós morreremos de qualquer forma”, afirma.
“Não há casos de vazamentos de dados” pessoais do Instituto Nacional de Estatística e “os dados não são individualizados”, sublinha.
Porém, com o desenvolvimento da inteligência artificial, “tudo se acelera”.