Esto es lo que piensa la Inteligencia Artificial sobre la primera ley del mundo para regularla

Escrito por 20minutos.es el Publicado en Tecnología.

La Unión Europea ha sido la pionera en el mundo en pactar, este viernes, una ley de inteligencia artificial que permite o prohíbe el uso de la tecnología en función del riesgo que suponga para las personas y que también regulará los sistemas de inteligencia artificial generativa, en los que se basan modelos como ChatGPT, de la empresa OpenAI, o Bard, de Google. Estas empresas deberán cumplir criterios de transparencia, como especificar si un texto, canción o fotografía se han generado a través de la IA y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor. Sobre esta ley, la propia inteligencia artificial ya tiene una opinión forjada.

En concreto, un equipo de TVE ha preguntado a Bard, la IA de Google, qué piensa sobre el acuerdo al que han llegado los países europeos, y que deberá ser ratificado por el Parlamento Europeo y el Consejo de la UE. "¿Qué te parece el acuerdo alcanzado por la Unión Europea sobre inteligencia artificial?", es la pregunta que se le formula a Bard.

"En general, creo que el acuerdo alcanzado por la Unión Europea sobre inteligencia artificial es un paso positivo en la dirección correcta. Es importante que la IA se desarrolle y utilice de manera responsable y ética, y este acuerdo proporciona un marco para hacerlo", responde Bard.

Bard añade que le parece "positivo" que dicho acuerdo de la UE "establezca una serie de principios básicos para la IA, como la seguridad, la transparencia, la trazabilidad y la no discriminación", una serie de cuestiones "fundamentales para garantizar que la IA se utilice de manera beneficiosa para la sociedad", puntualiza.

La norma acordada por la UE prohíbe todos los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual. Tampoco se podrán utilizar los sistemas que puntúan a las personas en función de su comportamiento o características personales, ni la inteligencia artificial capaz de manipular el comportamiento humano, algo que Bard también considera "positivo". "Estas prohibiciones son necesarias para proteger los derechos humanos y la privacidad", sostiene.

Respecto a los modelos de inteligencia artificial generativa, como ChatGPT o Bard, la ley ha establecido una serie de criterios para detectar los modelos que pueden generar un alto riesgo en función del contexto en el que se usen y obliga a sus desarrolladores a cumplir unas salvaguardas más estrictas antes de sacarlos al mercado.

En términos generales, el reglamento permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas e identifica sistemas de alto riesgo que solo se podrán utilizar si se demuestra que respetan los derechos fundamentales.

Según Bard, "no es un acuerdo perfecto", ya que "hay algunos aspectos que podrían mejorarse, como la definición de los riesgos de IA y las sanciones por incumplimiento". No obstante, prosigue esta IA, "en general, creo que es un buen comienzo", concluye.