Episódio 04 de 2025.2 — LLMs Fora de Contexto: Overfitting, Alucinação e Riscos Éticos
Description
Neste episódio, Tony e Diana mergulham nos perigos — técnicos e éticos — de aplicar modelos de linguagem fora do seu domínio original de treinamento. O debate gira em torno de exemplos como LLMs jurídicos usados em contextos médicos, ou modelos treinados em uma cultura operando em outra, levantando riscos como:
Overfitting técnico e incapacidade de generalizar;
Alucinações com falsa autoridade, que mascaram desinformação;
Vieses amplificados ao sair de contextos locais;
Riscos à privacidade e uso indevido de dados sensíveis;
Problemas de infraestrutura, escalabilidade e sustentabilidade da IA.
A dupla também discute práticas fundamentais de mitigação, como validação cruzada entre domínios, monitoramento contínuo, human-in-the-loop, guardrails modulares e transparência via datasheets e model cards. Um episódio denso, técnico e ético, que alerta: mais importante que “o que” um LLM responde, é “onde” e “por que” ele foi treinado para responder.
🧠 O episódio foi gerado com apoio de Inteligência Artificial a partir do debate coletivo entre professor, monitores e alunos, ocorrido na plataforma strateegia.digital, durante a disciplina IF1006 - TÓPICOS AVANÇADOS EM SISTEMAS DE INFORMAÇÃO 3 do curso de Bacharelado em Sistemas de Informação do Centro de Informática da UFPE no semestre 2025.2.