El gobierno indio ha anunciado un nuevo requisito para que las empresas de tecnología obtengan la aprobación del gobierno antes de lanzar públicamente herramientas de inteligencia artificial (IA) que aún están en desarrollo o se consideran “poco confiables”, informó Reuters el 4 de marzo.
La medida es parte de los esfuerzos de la India para gestionar el despliegue de tecnologías de inteligencia artificial, con el objetivo de promover la precisión y confiabilidad de las herramientas disponibles para sus ciudadanos mientras se prepara para las elecciones.
Reglas para la IA
Según una directiva emitida por el Ministerio de Tecnología de la Información, cualquier aplicación basada en IA, en particular aquellas que involucran IA generativa, debe recibir autorización explícita del gobierno antes de su introducción en el mercado indio.
Además, estas herramientas de IA deben estar marcadas con advertencias sobre su potencial para generar respuestas incorrectas a las consultas de los usuarios, lo que refuerza la postura del gobierno sobre la necesidad de claridad con respecto a las capacidades de la IA.
La regulación se alinea con las tendencias globales donde las naciones buscan establecer pautas para el uso responsable de la IA. El enfoque de la India para aumentar la supervisión de la IA y las plataformas digitales coincide con su estrategia regulatoria más amplia para salvaguardar los intereses de los usuarios en una era digital que avanza rápidamente.
El aviso del gobierno también señala preocupaciones sobre la influencia de las herramientas de inteligencia artificial en la integridad del proceso electoral. Con las próximas elecciones generales, en las que se prevé que el partido gobernante mantenga su mayoría, se presta mayor atención a garantizar que las tecnologías de inteligencia artificial no comprometan la equidad electoral.
Crítica de Géminis
La medida sigue a las recientes críticas a la herramienta Gemini AI de Google, que generó respuestas percibidas como desfavorables hacia el primer ministro indio, Narendra Modi.
Google respondió al incidente reconociendo las imperfecciones de su herramienta de inteligencia artificial, particularmente en temas delicados como la actualidad y la política. La compañía dijo que la herramienta aún era “poco confiable”.
El viceministro de TI, Rajeev Chandrasekhar, dijo que los problemas de confiabilidad no eximen a las plataformas de responsabilidades legales y enfatizó la importancia de cumplir con las obligaciones legales en materia de seguridad y confianza.
Al introducir estas regulaciones, India está dando pasos hacia el establecimiento de un entorno controlado para la introducción y el uso de tecnologías de IA.
El requisito de aprobación gubernamental y el énfasis en la transparencia con posibles imprecisiones se consideran medidas para equilibrar la innovación tecnológica con consideraciones sociales y éticas, con el objetivo de proteger los procesos democráticos y el interés público en la era digital.