Italia multa a OpenAI con 15 millones de euros por recopilar datos personales para entrenar a ChatGPT

La revolución de los chatbots de Inteligencia Artificial comenzó con el lanzamiento público de ChatGPT. Esta IA mostró al público general las capacidades de esta tecnología, y su evolución (y la de la competencia) se ha acelerado a ritmos insospechados. Sin embargo, mientras su popularidad se disparaba, las preocupaciones sobre la IA iban en aumento, entre ellas la capacidad de recopilar datos y la disminución de la privacidad de sus usuarios.

No tardaron en surgir las primeras investigaciones entre las autoridades regulatorias de distintos países, y ahora es Italia la que ha impuesto una multa de 15 millones de Euros a OpenAI, la empresa detrás de ChatGPT.

Las razones no serían otras que la falta de transparencia de OpenAI sobre el origen de los datos con los que han entrenado a ChatGPT, más concretamente sobre aquellos datos personales de ciudadanos. 

A esto se suma también un fallo de seguridad que habría ocurrido en marzo del 2023 y sobre el que la compañía no habría informado a las autoridades, tal y como tenían obligación de hacer según las leyes de protección de datos de la Unión Europea (GDPR).

Además de la multa de 15 millones, OpenAI se verá obligada a explicar al público cómo funciona ChatGPT, sobre todo en el aspecto de la recolección de datos para el entrenamiento del modelo.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!