La inteligencia artificial ha estado en la mira de los gobiernos preocupados por cómo podría ser mal utilizada para fraude, desinformación y otras actividades maliciosas en línea; ahora en el Reino Unido, un regulador se está preparando para explorar cómo se utiliza la IA en la lucha contra algunos de esos mismos problemas, específicamente en lo que se refiere al contenido dañino para los niños.
Ofcom, el regulador encargado de hacer cumplir la Ley de Seguridad en Línea del Reino Unido, anunció que planea lanzar una consulta sobre cómo la IA y otras herramientas automatizadas se utilizan actualmente, y pueden ser utilizadas en el futuro, para detectar y eliminar de forma proactiva contenido ilegal en línea, específicamente para proteger a los niños de contenido dañino e identificar material de abuso infantil previamente difícil de detectar.
Las herramientas formarían parte de un conjunto más amplio de propuestas que Ofcom está elaborando centradas en la seguridad infantil en línea. Las consultas para las propuestas integrales comenzarán en las próximas semanas, con la consulta sobre IA programada para más adelante este año, dijo Ofcom.
Mark Bunting, director del Grupo de Seguridad en Línea de Ofcom, dice que su interés en la IA comienza con un análisis de cómo se está utilizando actualmente como herramienta de detección.
«Algunos servicios ya utilizan esas herramientas para identificar y proteger a los niños de este contenido», dijo en una entrevista con TechCrunch. «Pero no hay mucha información sobre cuán precisas y efectivas son esas herramientas. Queremos ver formas en las que podemos asegurar que la industria esté evaluando eso cuando las esté utilizando, asegurando que los riesgos para la libre expresión y la privacidad estén siendo gestionados».
Una consecuencia probable será que Ofcom recomiende cómo y qué plataformas deberían evaluar, lo que podría llevar no solo a que las plataformas adopten herramientas más sofisticadas, sino también a posibles multas si no logran realizar mejoras tanto en el bloqueo de contenido como en la creación de mejores formas de evitar que los usuarios más jóvenes lo vean.
«Como sucede con mucha regulación de seguridad en línea, la responsabilidad recae en las empresas para asegurarse de que están tomando medidas apropiadas y utilizando herramientas adecuadas para proteger a los usuarios», afirmó.
Habrá tanto críticos como partidarios de los movimientos. Los investigadores de IA están encontrando formas cada vez más sofisticadas de utilizar la IA para detectar, por ejemplo, deepfakes, así como para verificar usuarios en línea. Sin embargo, hay tantos escépticos que señalan que la detección de IA está lejos de ser infalible.
Ofcom anunció la consulta sobre herramientas de IA al mismo tiempo que publicó su última investigación sobre cómo los niños se están involucrando en línea en el Reino Unido, que encontró que en general, hay más niños conectados que nunca, tanto que Ofcom ahora está desglosando la actividad entre grupos de edades cada vez más jóvenes.
Casi una cuarta parte, el 24%, de todos los niños de 5 a 7 años ahora poseen sus propios teléfonos inteligentes, y cuando se incluyen las tabletas, los números suben al 76%, según una encuesta a padres estadounidenses. Ese mismo grupo de edad también está utilizando mucho más los medios de comunicación en esos dispositivos: el 65% ha realizado llamadas de voz y video (frente al 59% de hace un año), y la mitad de los niños (frente al 39% de hace un año) están viendo contenido en streaming.
Las restricciones de edad en algunas aplicaciones de redes sociales mainstream están disminuyendo, sin embargo, en el Reino Unido no parecen ser obedecidas de todos modos. El 38% de los niños de 5 a 7 años están utilizando redes sociales, descubrió Ofcom. WhatsApp de Meta, con un 37%, es la aplicación más popular entre ellos. Y en posiblemente la primera instancia de la aplicación de imágenes insignia de Meta sintiéndose aliviada de ser menos popular que la sensación viral de ByteDance, TikTok fue utilizada por el 30% de los niños de 5 a 7 años, mientras que Instagram se ubicó en «solo» el 22%. Discord completó la lista pero es significativamente menos popular, con solo un 4%.
Alrededor de un tercio, el 32%, de los niños de esta edad están accediendo en línea por su cuenta, y el 30% de los padres dijo que estaban de acuerdo con que sus hijos menores de edad tuvieran perfiles en redes sociales. YouTube Kids sigue siendo la red más popular para los usuarios más jóvenes, con un 48%.
Los videojuegos, un favorito perenne de los niños, han crecido y son utilizados por el 41% de los niños de 5 a 7 años, con un 15% de los niños de este grupo de edad jugando juegos de disparos.
Aunque el 76% de los padres encuestados dijeron que hablaban con sus hijos pequeños sobre cómo mantenerse seguros en línea, Ofcom señala que existen diferencias entre lo que un niño ve y lo que ese niño podría informar. Al investigar a niños de mayor edad de 8 a 17 años, Ofcom los entrevistó directamente. Encontró que el 32% de los niños informaron que habían visto contenido preocupante en línea, pero solo el 20% de sus padres dijo que reportaron algo.
Incluso teniendo en cuenta algunas inconsistencias en los informes, «La investigación sugiere una desconexión entre la exposición de los niños de mayor edad a contenido potencialmente perjudicial en línea y lo que comparten con sus padres sobre sus experiencias en línea», escribe Ofcom. Y el contenido preocupante es solo un desafío: los deepfakes también son un problema. Entre los niños de 16-17 años, dijo Ofcom, el 25% dijeron que no estaban seguros de distinguir lo falso de lo real en línea.