La fuerza de tareas de ChatGPT de la UE ofrece un primer vistazo a desenredar el cumplimiento de la privacidad del chatbot de IA

La fuerza de tareas de ChatGPT de la UE ofrece un primer vistazo a desenredar el cumplimiento de la privacidad del chatbot de IA

Un grupo de trabajo de protección de datos que ha pasado más de un año considerando cómo se aplica el reglamento de protección de datos de la Unión Europea al chatbot viral de OpenAI, ChatGPT, informó el viernes sus conclusiones preliminares. La principal conclusión es que el grupo de trabajo de autoridades de privacidad sigue indeciso sobre cuestiones legales cruciales, como la legalidad y equidad del procesamiento de OpenAI.

El problema es importante, ya que las multas por violaciones confirmadas del régimen de privacidad del bloque pueden alcanzar hasta el 4% de la facturación anual global. Además, los guardianes también pueden ordenar detener el procesamiento no conforme. Por lo tanto, en teoría, OpenAI enfrenta un considerable riesgo regulatorio en la región en un momento en que las leyes dedicadas a la inteligencia artificial son escasas (y, incluso en el caso de la UE, años lejos de estar completamente operativas).

Pero sin claridad de los aplicadores de protección de datos de la UE sobre cómo se aplican las leyes actuales de protección de datos a ChatGPT, es muy probable que OpenAI se sienta empoderada para seguir con su negocio como de costumbre, a pesar de la creciente cantidad de quejas de que su tecnología viola varios aspectos del Reglamento General de Protección de Datos (GDPR) del bloque.

Por ejemplo, esta investigación de la autoridad de protección de datos de Polonia se abrió después de una queja sobre el chatbot inventando información sobre un individuo y negándose a corregir los errores. Una queja similar fue presentada recientemente en Austria.

En resumen, OpenAI podría estar enfrentando serios desafíos legales en la Unión Europea si las autoridades de protección de datos deciden actuar en su contra debido a posibles violaciones del GDPR. Es importante destacar que el informe del grupo de trabajo destaca la necesidad de que OpenAI demuestre una base legal válida para todas las etapas del procesamiento de datos personales, incluida la recolección de datos de entrenamiento, el preprocesamiento de datos, el entrenamiento en sí mismo, etc.

En conclusión, la situación legal de OpenAI y su chatbot ChatGPT en la Unión Europea sigue siendo incierta. A pesar de las quejas y las investigaciones en curso, la falta de claridad sobre la legalidad y equidad del procesamiento de datos plantea un desafío significativo para la empresa de inteligencia artificial.