Não foi possível carregar o Diqus. Se você é o moderador, por favor veja o nosso guia de problemas.
Quando confiamos demais na IA, temos a sensação de que seria mais fácil ter feito nós mesmos porque conseguimos controlar a complexidade do que introduzimos no código. O problema da IA é que ela não controla essa complexidade.
Sempre usei IA via chatgpt, como se fosse um stackoverflow, porque eu faço a pergunta e consigo obter a resposta e adaptá-la à realidade do meu código sem introduzir nada que eu não tenha controle. O problema é que isso não necessariamente aumenta minha produtividade, porque se eu já soubesse, eu faria no mesmo rítmo que a própria IA. Precisa apenas de um bom auto-complete, mas até isso é substituível por um desenvolvedor que digita rápido e todos bons desenvolvedores digitam no mínimo 90 palavras por minutos, com autocomplete, eles voam!
Mas como avisar aos chefes que o problema é que não sabemos o suficiente (e nenhum desenvolvedor sabe) e não que a IA está aumentando produtividade? Como avisar que os 30% de produtividade que esperam poderia ser alcançado com simples conhecimento bruto do desenvolvedor na stack e codebase que trabalha?
Opinião impopular: review de modelo de LLM serve só pra clickbait. Não é xAI, muita coisa na arquitetura não é explicável. Mesmo em artigo acadêmico pessoal se enrola bem pra conceituar. E realmente, se não sair um novo Transformers, não deve ter muita evolução nessa frente (salvo novas aplicações/produtos). BTW, já leu, certo? https://papers.neurips.cc/paper/7181-attention-is-all-you-need.pdf
A propósito, estou fazendo o doutorado em IA na FEI, tem professores muito bons. Sei que não é sua praia, mas seria legal te ver lá, nem que seja como aluno especial! Abração!