Compartir

RESUMEN CON IA

A mediados de octubre de 2025, más de 200 académicos, científicos y líderes globales solicitaron la creación de una organización internacional que regule la inteligencia artificial (IA) para prevenir los riesgos asociados a esta tecnología. La IA, especialmente la generativa, se ha integrado rápidamente en la vida cotidiana, pero su uso descontrolado podría generar graves consecuencias, como desinformación masiva, manipulación financiera o incluso la toma de decisiones autónomas que afecten a la humanidad. Expertos coinciden en que es urgente establecer regulaciones globales, pues sin reglas claras, las empresas podrían usarla irresponsablemente. Aunque existen iniciativas locales, como el AI Act en la Unión Europea, aún no hay un marco normativo global. La falta de control podría amplificar los peores defectos humanos, por lo que la regulación se presenta como una necesidad imperiosa.

 

“Una IA descontrolada puede dañar mucho más rápido de lo que la sociedad puede reaccionar”: se busca poner límites a la inteligencia artificial

A inicios de la tercera semana de octubre de 2025 unos 200 académicos, científicos y líderes mundiales pidieron la creación de una organización internacional que regule, de manera global, el uso de la IA para defender a la humanidad de los riesgos de una tecnología poderosa con libre albedrío. ¿Cuáles son los peligros de una IA sin control?

En muy poco tiempo, la inteligencia artificial (IA) se ha vuelto parte de nuestro día a día. ChatGPT, Gemini, Copilot y Claude, por nombrar solo algunas de las más populares, se han metido en nuestras computadoras, tablets, celulares y ya son de uso común en el estudio, trabajo, para preparar alguna receta de comida o ver eternos videos de los ‘italian brainrot’.

 

El uso de la IA —sobre todo la generativa— ha irrumpido como un tsunami en nuestras vidas, pero no todos estamos listos aún para las consecuencias y para discernir entre sus potencialidades y sus perjuicios. Porque una cosa es que modifique una imagen al ‘estilo Ghibli’ y otra muy distinta que decida matar civiles identificando patrones físicos o aliente el suicidio de un adolescente.

Esa preocupación es la que se planteó en los últimos días ante la ONU, justo antes del inicio de la Asamblea General, cuando más de 200 académicos prestigiosos, expertos en IA y líderes políticos de todo el mundo, entre ellos diez premios Nóbel y desarrolladores, presentaron una declaración llamada “Pedido global por unas líneas rojas en IA”. Su objetivo es advertir sobre los peligros que representa una inteligencia artificial sin límites ni controles, además de pedir una normativa global vinculante que regule lo que nunca se le debe permitir a la IA, así como la creación de un organismo internacional independiente que supervise su aplicación.

 

El documento, presentado en la ONU por Maria Ressa, periodista filipina y Premio Nobel de la Paz en el 2021, señala que las “líneas rojas globales” no son una novedad pues ya se aplican para los medicamentos, las armas biológicas o las centrales nucleares, y que ante la irrupción tan rápida de la IA la humanidad debe estar mejor preparada.

 

Señales claras

¿Es realmente necesaria una normativa global o solo depende de las herramientas que uno le enseñe a la inteligencia artificial para que se regule sola? ¿El peligro está sobredimensionado? El Comercio conversó con varios expertos sobre el tema.

 

Para Gissella Bejarano, profesora en Marist University, en Nueva York, y cofundadora de IAPUCP (Grupo de Investigación en Inteligencia Artificial de la PUCP), sí es necesaria una normativa. “A veces la sociedad se da cuenta demasiado tarde de los riesgos de una determinada tecnología. Una IA mal usada puede generar una gran escala de desinformación. Si los sistemas de IA se dejan correr solos y sin ningún componente de control humano, entonces aprenden cosas que no son verdaderas y siguen construyendo encima de eso”.

 

Una investigación de NewsGuard, un portal estadounidense que mide la confiabilidad de los datos en los medios, señaló que en agosto de este año los 10 principales sistemas de IA repitieron afirmaciones falsas sobre temas de actualidad un 35% de las veces (en comparación al 18% ocurrido en el 2024).

“Sin reglas globales, todo queda librado a la buena voluntad de las empresas y ya sabemos que eso nunca termina bien. Y menos ahora que las compañías crecieron entre 5 y 10 veces su valor y poder”, menciona Leandro Zanoni, periodista argentino, consultor en IA y autor del libro “Las máquinas no pueden soñar”.

 

“El escenario más preocupante es que la IA termine amplificando nuestros peores defectos. Sin reglas, puede usarse para crear campañas masivas de desinformación, fraudes a gran escala, manipulación financiera o vigilancia totalitaria

 

“El escenario más preocupante es que la IA termine amplificando nuestros peores defectos. Sin reglas, puede usarse para crear campañas masivas de desinformación, fraudes a gran escala, manipulación financiera o vigilancia totalitaria. Yo no soy pesimista respecto a la IA, pero hay riesgos, tal vez más técnicos, como sistemas que toman decisiones sin supervisión humana y que nadie puede detener. Una IA descontrolada puede dañar mucho más rápido de lo que la sociedad puede reaccionar”, agrega.

Para el experto ecuatoriano Christian Espinosa Baquero, profesor dedicado a la realfabetización en IA a nivel regional, un marco normativo global no solo es deseable, sino un imperativo para un desarrollo tecnológico seguro y centrado en el ser humano. “Las regulaciones deben exigir transparencia algorítmica para que las decisiones no sean tomadas desde una ‘caja negra’. El imperativo es urgente porque lo que ha predominado hasta ahora es la ley de la selva”, explica a este Diario.

 

Claudia Daré, cofundadora y directora de la consultora brasileña Latam Intersect, considera que un marco global “es el piso de seguridad que se necesita para dejar claras las reglas, a través de una seria evaluación de riesgos”. “Sin reglas mínimas comunes, las malas prácticas aparecen y acaban por ser usadas cada vez más y con poco control. El resultado —si pensamos en términos de comunicación— es que se erosiona la confianza”.

 

La regulación que urge

Hasta el momento, al menos 69 países han propuesto más de un millar de iniciativas y marcos legales respecto a la IA, pero aún no hay una reglamentación internacional vinculante. No obstante, los gobiernos nacionales ya vienen adelantando regulaciones propias.

Una de las más integrales es el de la Unión Europea, la IA Act, que clasifica los sistemas de inteligencia artificial según su riesgo, y sobre la cual se están basando varios países para sus propias normativas.

 

“El AI Act de Europa es una regulación bastante estricta y tiene muchos detractores que señalan que la regulación va a impedir la innovación. Pero considero que una regulación así nos permite pensar en ideas innovadoras que garanticen la seguridad y el beneficio de la IA para todos”, señala Bejarano.

Zanoni considera que las normativas individuales son insuficientes. “Si los países empiezan a regular por separado, la IA va a tener las mismas fronteras que Internet: ninguna. Un algoritmo puede nacer en San Francisco, entrenarse en Islandia y usarse en Nigeria al mismo tiempo. Esto de por sí no es malo, pero es peligroso si se usa para el mal”.

 

“Por un lado, tenemos plataformas que operan sin reglas fijas con usuarios expuestos a prácticas sin garantías en cuanto al tratamiento de sus datos, privacidad y seguridad; así como a la falta de garantías en cuanto a la responsabilidad ulterior de estas plataformas por su mal uso. Un marco normativo debe definir una cadena de responsabilidad clara”, precisa Espinosa. “Por otra parte, no quedan claras las regulaciones sobre derechos de autor y el abuso que puede haber sobre este tema. ¿Es legal o no entrenar una IA con material protegido sin permiso o compensación? Mientras que del lado del usuario tampoco existe jurisprudencia clara ante el mal uso como suplantación de identidad, fraudes o estafas”, agrega.

 

Control de las empresas

Las gigantes tecnológicas, como Meta, Google u OpenAI, están invirtiendo millones de dólares para llegar a la “superinteligencia” o inteligencia artificial general (IAG), un hipotético sistema de IA que superaría las capacidades del cerebro humano.

 

…lo que más preocupa es que los desarrolladores han admitido que no tienen ningún plan para controlar los sistemas de IA y que, por el momento, los gobiernos tampoco tienen plan alguno para exigirles que lo hagan.

 

Para algunos de los expertos en IA que firmaron la carta, lo que más preocupa es que los desarrolladores han admitido que no tienen ningún plan para controlar los sistemas de IA y que, por el momento, los gobiernos tampoco tienen plan alguno para exigirles que lo hagan.

“Los propios desarrolladores a veces no entienden del todo cómo funcionan sus modelos más avanzados. Esto significa que no tienen un control total”, advierte Zanoni. “Si se establecen regulaciones globales, las empresas enfrentarán más costos y barreras, pero también ganarán legitimidad. Tiene que haber un justo equilibro para que la regulación no frene a la innovación. Un marco claro les daría confianza a los usuarios y a los gobiernos. A la larga, es mejor negocio trabajar en un entorno seguro y confiable”, acota.

 

Según informa la cadena NBC, las principales empresas estadounidenses de IA han expresado su deseo de desarrollar sistemas de IA seguros y protegidos, por ejemplo, firmando un acuerdo centrado en la seguridad con la Casa Blanca en julio del 2023 y adhiriéndose a los Compromisos de Seguridad de la IA Fronteriza en una cumbre de Seúl (Corea del Sur) en el 2024. Sin embargo, estas empresas solo están cumpliendo la mitad de sus compromisos voluntarios.

 

Entre los firmantes de la iniciativa presentada en la ONU destacan Geoffrey Hinton y Yoshua Bengio, dos de los tres llamados “padrinos de la IA”, así como el cofundador de OpenAI, Wojciech Zaremba, y el científico de DeepMind Ian Goodfellow.

“Podemos creer en la buena fe de los desarrolladores, pero realmente otras evidencias nos muestran que dentro de sus empresas no sancionan el mal uso de la IA; por el contrario, siguen motivando la utilidad económica. Y eso ya ha pasado antes con Meta y sus redes sociales, por ejemplo”, recuerda Bejarano, quien este domingo 28 participará en una conferencia sobre IA y acceso a la información.

Claudia Daré comenta: “Hay al menos tres frentes que me preocupan como profesional de reputación: la desinformación a escala (deepfakes hiperverosímiles, suplantaciones de identidad, manipulación de procesos cívicos); el daño a las personas a través de sesgos en decisiones automatizadas, opacidad en criterios o vigilancia intrusiva; y el riesgo empresarial, con fugas de datos y contenido que nadie puede trazar”.

La inteligencia artificial llegó para transformar nuestras vidas. Si se utiliza de forma responsable, puede mejorar muchos aspectos y acelerar procesos. Sin embargo, la ausencia de lineamientos claros podría hacer que, en el cortísimo plazo, perdamos el control. Y cuando hablamos de sistemas que pueden simular los procesos de pensamientos, la urgencia de actuar es mayúscula.

1 comentario

  1. La inteligencia artificial llegó para transformar nuestras vidas. Si se utiliza de forma responsable, puede mejorar muchos aspectos y acelerar procesos. Sin embargo, la ausencia de lineamientos claros podría hacer que, en el cortísimo plazo, perdamos el control.

Comments are closed.