India renuncia al plan de requerir aprobación para el lanzamiento de modelos de IA

India renuncia al plan de requerir aprobación para el lanzamiento de modelos de IA

India está retrocediendo en un reciente asesoramiento de inteligencia artificial después de recibir críticas de muchos emprendedores e inversores locales y globales.

El Ministerio de Electrónica y Tecnología de la Información compartió un asesoramiento actualizado sobre inteligencia artificial con partes interesadas de la industria el viernes, en el que ya no se les pide que obtengan la aprobación del gobierno antes de lanzar o implementar un modelo de IA para usuarios en el mercado del sur de Asia.

Según las pautas revisadas, en cambio, se aconseja a las empresas etiquetar los modelos de IA poco probados e poco confiables para informar a los usuarios sobre su posible falibilidad o falta de fiabilidad.

La revisión sigue a las severas críticas que recibió el ministerio de tecnología de la información de India a principios de este mes de parte de muchas personas prominentes. Martin Casado, socio de la firma de riesgo Andreessen Horowitz, calificó la medida de India como «una atrocidad».

La directriz del 1 de marzo también marcó un cambio en la postura anterior de India sobre la regulación de la inteligencia artificial. Menos de un año atrás, el ministerio había optado por no regular el crecimiento de la IA, identificando el sector como vital para los intereses estratégicos de India.

El nuevo asesoramiento, al igual que el original a principios de este mes, no ha sido publicado en línea, pero TechCrunch ha revisado una copia del mismo.

El ministerio dijo a principios de este mes que aunque el asesoramiento no era legalmente vinculante, señala que es «el futuro de la regulación» y que el gobierno requiere cumplimiento.

El asesoramiento enfatiza que los modelos de IA no deben utilizarse para compartir contenido ilegal según la ley india y no deben permitir sesgos, discriminación o amenazas a la integridad del proceso electoral. También se aconseja a los intermediarios utilizar «ventanas emergentes de consentimiento» u otros mecanismos para informar explícitamente a los usuarios sobre la falta de fiabilidad de la salida generada por IA.

El ministerio ha mantenido su énfasis en garantizar que los deepfakes y la desinformación sean fácilmente identificables, aconsejando a los intermediarios etiquetar o incrustar contenido con metadatos o identificadores únicos. Ya no exige que las empresas ideen una técnica para identificar al «originador» de un mensaje en particular.