DiscoverITSitioPrivacidad en modelos de lenguaje: cómo tus datos acaban en la IA
Privacidad en modelos de lenguaje: cómo tus datos acaban en la IA

Privacidad en modelos de lenguaje: cómo tus datos acaban en la IA

Update: 2025-09-19
Share

Description

La Inteligencia Artificial Generativa está transformando la forma en que trabajamos y nos comunicamos, pero también plantea riesgos inéditos en la protección de datos personales. En este episodio de Cybertalks, Gustavo Aldegani analiza cómo modelos como GPT pueden exponer información sensible a través de técnicas de ataque como membership inference, model inversion o reconstrucción de datos, incluso cuando se aplican procesos de limpieza o fine-tuning.

Exploraremos los peligros de los datasets contaminados, la exposición involuntaria de información y los desafíos de mantener la privacidad en un ecosistema de IA cada vez más extendido. También revisaremos las principales estrategias de defensa, como la privacidad diferencial, el aprendizaje federado, el cifrado homomórfico y la purificación de predicciones, junto con los avances académicos más recientes y el rol de marcos regulatorios como el GDPR.

Comments 
In Channel
loading
00:00
00:00
x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

Privacidad en modelos de lenguaje: cómo tus datos acaban en la IA

Privacidad en modelos de lenguaje: cómo tus datos acaban en la IA

ITSitio