O potencial de relevância e impacto inovador de transformadores [veja A Grande Transformação dos Transformadores, em bit.ly/3iou4aO e ChatGPT is everywhere. Here’s where it came from, em bit.ly/3JVTuIk] como chatGPT pode ser medido pela quantidade de especialistas, profissionais, pesquisadores e, de resto, membros do público em geral que se dedicaram, nas últimos semanas, a apontar problemas de todos os tipos da estrela dos sistemas generativos. Não sem razão, é bom que se diga.
Pela primeira vez, uma aplicação de inteligência artificial consegue simular conversações com humanos usando não só regras de interação mas a partir de uma base de texto de 570 gigabytes -o equivalente a 385 milhões de páginas de texto em Word- desenvolver tópicos que variam de avanços na astrobiologia a receitas práticas de como fazer cerveja lager.
Já era de se esperar que o chatbot tivesse problemas de acurácia, fosse muito pouco criativo e tivesse zero de inteligência emocional. Até aí, nada de novo. Trata-se de um simulador, treinado com material existente na rede, e de uma forma muito particular.
Uma metáfora para explicar como tal simulador é uma representação limitada da web está em ChatGPT Is a Blurry JPEG of the Web [bit.ly/3XnJ8Uq]: as máquinas [as de machine learning…] “aprendem” usando um processo de extração de características, equivalente a forçar a informação do universo de interesse [presente nos dados de treinamento, no caso de chatGPT parte da web] por um gargalo [veja New Theory Cracks Open the Black Box of Deep Learning, em bit.ly/3YkOgtZ] que comprime os dados [e o ruído que os acompanha] o máximo possível, preservando -até o limite definido no treinamento- a informação representada nos dados… usando um espaço muito menor do que a web.
Sem respostas