La paradoja del poder de la IA

Por: Admin

COMPARTE:

Facebook
X
WhatsApp

¿Pueden los estados aprender a gobernar la inteligencia artificial antes de que sea demasiado tarde?

Es 2035 y la inteligencia artificial está en todas partes. Los sistemas de inteligencia artificial administran hospitales, operan aerolíneas y luchan entre sí en los tribunales. La productividad se ha disparado a niveles sin precedentes, y un sinnúmero de negocios antes inimaginables han escalado a una velocidad vertiginosa, generando inmensos avances en el bienestar. Nuevos productos, curas e innovaciones llegan al mercado a diario, a medida que la ciencia y la tecnología se aceleran. Y, sin embargo, el mundo se está volviendo más impredecible y más frágil, a medida que los terroristas encuentran nuevas formas de amenazar a las sociedades con armas cibernéticas inteligentes y en evolución y los trabajadores administrativos pierden sus trabajos en masa.

Hace apenas un año, ese escenario habría parecido puramente ficticio; hoy, parece casi inevitable. Los sistemas de IA generativa ya pueden escribir de manera más clara y persuasiva que la mayoría de los humanos y pueden producir imágenes originales, arte e incluso código de computadora basado en indicaciones de lenguaje simple. Y la IA generativa es solo la punta del iceberg. Su llegada marca un momento Big Bang, el comienzo de una revolución tecnológica que cambiará el mundo y rehará la política, las economías y las sociedades.

Al igual que las olas tecnológicas pasadas, la IA combinará un crecimiento y una oportunidad extraordinarios con una interrupción y un riesgo inmensos. Pero a diferencia de las olas anteriores, también iniciará un cambio sísmico en la estructura y el equilibrio del poder global, ya que amenaza el estatus de los estados-nación como los principales actores geopolíticos del mundo. Lo admitan o no, los creadores de la IA son ellos mismos actores geopolíticos, y su soberanía sobre la IA afianza aún más el orden “tecnopolar” emergente, en el que las empresas de tecnología ejercen el tipo de poder en sus dominios que alguna vez estuvo reservado para los estados-nación. Durante la última década, las grandes empresas de tecnología se han convertido en actores independientes y soberanos en los ámbitos digitales que han creado. La IA acelera esta tendencia y la extiende mucho más allá del mundo digital. La complejidad de la tecnología y la velocidad de su avance harán que sea casi imposible que los gobiernos elaboren normas pertinentes a un ritmo razonable. Si los gobiernos no se ponen al día pronto, es posible que nunca lo hagan.

Afortunadamente, los formuladores de políticas de todo el mundo han comenzado a darse cuenta de los desafíos que plantea la IA y a luchar por cómo gobernarla. En mayo de 2023, el G-7 lanzó el “Proceso de IA de Hiroshima”, un foro dedicado a armonizar la gobernanza de la IA. En junio, el Parlamento Europeo aprobó un borrador de la Ley de IA de la UE, el primer intento integral de la Unión Europea de erigir salvaguardias en torno a la industria de la IA. Y en julio, el secretario general de la ONU, Antonio Guterres, pidió el establecimiento de un organismo de control regulador mundial de la IA. Mientras tanto, en los Estados Unidos, los políticos de ambos lados del pasillo están pidiendo una acción regulatoria. Pero muchos están de acuerdo con Ted Cruz, el senador republicano de Texas, quien concluyó en junio que el Congreso “no sabe qué diablos está haciendo”.

Desafortunadamente, gran parte del debate sobre el gobierno de la IA permanece atrapado en un falso y peligroso dilema: aprovechar la inteligencia artificial para expandir el poder nacional o sofocarlo para evitar sus riesgos. Incluso aquellos que diagnostican con precisión el problema están tratando de resolverlo metiendo con calzador la IA en los marcos de gobernanza existentes o históricos. Sin embargo, la IA no se puede gobernar como cualquier tecnología anterior y ya está cambiando las nociones tradicionales de poder geopolítico.

El desafío es claro: diseñar un nuevo marco de gobernanza adecuado para esta tecnología única. Para que la gobernanza global de la IA sea posible, el sistema internacional debe superar las concepciones tradicionales de soberanía y dar la bienvenida a las empresas de tecnología a la mesa. Es posible que estos actores no obtengan legitimidad de un contrato social, la democracia o la provisión de bienes públicos, pero sin ellos, la gobernanza eficaz de la IA no tendrá ninguna posibilidad. Este es un ejemplo de cómo la comunidad internacional deberá repensar los supuestos básicos sobre el orden geopolítico. Pero no es el único.

Un desafío tan inusual y apremiante como la IA exige una solución original. Antes de que los formuladores de políticas puedan comenzar a elaborar una estructura regulatoria adecuada, deberán acordar los principios básicos sobre cómo gobernar la IA. Para empezar, cualquier marco de gobernanza deberá ser precautorio, ágil, inclusivo, impermeable y específico. Sobre la base de estos principios, los formuladores de políticas deberían crear al menos tres regímenes de gobernanza superpuestos: uno para establecer hechos y asesorar a los gobiernos sobre los riesgos que plantea la IA, uno para prevenir una carrera armamentista total entre ellos y otro para gestionar las fuerzas disruptivas de un tecnología diferente a todo lo que el mundo ha visto.

Nos guste o no, 2035 está llegando. Ya sea que se defina por los avances positivos habilitados por la IA o las interrupciones negativas causadas por ella, depende de lo que hagan ahora los formuladores de políticas.

MAS RÁPIDO, MAS ALTO, MÁS FUERTE

La IA es diferente, diferente de otras tecnologías y diferente en su efecto sobre el poder. No solo plantea desafíos de política; su naturaleza hiperevolutiva también hace que resolver esos desafíos sea cada vez más difícil. Esa es la paradoja del poder de la IA.

El ritmo del progreso es asombroso. Tome la Ley de Moore, que ha predicho con éxito la duplicación de la potencia informática cada dos años. La nueva ola de IA hace que esa tasa de progreso parezca pintoresca. Cuando OpenAI lanzó su primer modelo de lenguaje grande, conocido como GPT-1, en 2018, tenía 117 millones de parámetros, una medida de la escala y complejidad del sistema. Cinco años después, se cree que el modelo de cuarta generación de la compañía, GPT-4, tiene más de un billón. La cantidad de computación utilizada para entrenar los modelos de IA más potentes se ha multiplicado por diez cada año durante los últimos diez años. Dicho de otra manera, los modelos de IA más avanzados de la actualidad, también conocidos como modelos de “frontera”, utilizan cinco mil millonesveces la potencia informática de los modelos de última generación de hace una década. El procesamiento que antes tomaba semanas ahora ocurre en segundos. Los modelos que pueden manejar decenas de billones de parámetros llegarán en los próximos años. Los modelos de “escala cerebral” con más de 100 billones de parámetros, aproximadamente el número de sinapsis en el cerebro humano, serán viables dentro de cinco años.

Con cada nuevo orden de magnitud surgen capacidades inesperadas. Pocos predijeron que el entrenamiento en texto sin procesar permitiría que grandes modelos de lenguaje produjeran oraciones coherentes, novedosas e incluso creativas. Menos aún esperaban que los modelos de lenguaje fueran capaces de componer música o resolver problemas científicos, como algunos ahora pueden hacerlo. Pronto, los desarrolladores de IA probablemente tendrán éxito en la creación de sistemas con capacidades de mejora automática, una coyuntura crítica en la trayectoria de esta tecnología que debería hacer que todos se detuvieran.

Los modelos de IA también están haciendo más con menos. Las capacidades de vanguardia de ayer se ejecutan en sistemas más pequeños, económicos y accesibles en la actualidad. Apenas tres años después de que OpenAI lanzara GPT-3, los equipos de código abierto crearon modelos capaces del mismo nivel de rendimiento que son menos de una sexagésima parte de su tamaño, es decir, 60 veces más baratos de ejecutar en producción, totalmente gratuitos y disponible para todos en Internet. Los futuros modelos de lenguajes grandes probablemente seguirán esta trayectoria de eficiencia y estarán disponibles en forma de código abierto solo dos o tres años después de que los principales laboratorios de IA gasten cientos de millones de dólares en desarrollarlos.

Al igual que con cualquier software o código, los algoritmos de IA son mucho más fáciles y económicos de copiar y compartir (o robar) que los activos físicos. Los riesgos de proliferación son evidentes. El poderoso modelo de lenguaje grande Llama-1 de Meta, por ejemplo, se filtró a Internet a los pocos días de su debut en marzo. Aunque los modelos más potentes aún requieren hardware sofisticado para funcionar, las versiones de gama media pueden ejecutarse en computadoras que se pueden alquilar por unos pocos dólares la hora. Pronto, estos modelos se ejecutarán en teléfonos inteligentes. Ninguna tecnología tan poderosa se ha vuelto tan accesible, tan amplia y tan rápida. 

 

Robots preparando comida en un restaurante de estofado en Beijing, noviembre de 2018
Jason Lee / Reuters

 

La IA también se diferencia de las tecnologías más antiguas en que casi toda ella se puede caracterizar como de “uso dual”, con aplicaciones tanto militares como civiles. Muchos sistemas son inherentemente generales y, de hecho, la generalidad es el objetivo principal de muchas empresas de IA. Quieren que sus aplicaciones ayuden a tantas personas como sea posible. Pero los mismos sistemas que impulsan automóviles pueden impulsar tanques. Una aplicación de IA creada para diagnosticar enfermedades podría crear, y armar, una nueva. Los límites entre lo civil seguro y lo militarmente destructivo son intrínsecamente borrosos, lo que explica en parte por qué Estados Unidos ha restringido la exportación de los semiconductores más avanzados a China. 

Todo esto se desarrolla en un campo global: una vez lanzados, los modelos de IA pueden estar y estarán en todas partes. Y solo se necesitará un modelo maligno o de “ruptura” para causar estragos. Por esa razón, la regulación de la IA no se puede hacer de forma fragmentaria. De poco sirve regular la IA en algunos países si no se regula en otros. Debido a que la IA puede proliferar tan fácilmente, su gobernanza no puede tener lagunas.

Es más, el daño que la IA podría causar no tiene un límite evidente, incluso cuando los incentivos para construirla (y los beneficios de hacerlo) continúan creciendo. La IA podría usarse para generar y difundir información errónea tóxica, erosionando la confianza social y la democracia; vigilar, manipular y someter a los ciudadanos, socavando la libertad individual y colectiva; o para crear poderosas armas digitales o físicas que amenazan vidas humanas. La IA también podría destruir millones de puestos de trabajo, empeorando las desigualdades existentes y creando otras nuevas; afianzar patrones discriminatorios y distorsionar la toma de decisiones al amplificar los bucles de retroalimentación de mala información; o desencadenar escaladas militares involuntarias e incontrolables que conduzcan a la guerra.

Tampoco está claro el marco de tiempo para los mayores riesgos. La desinformación en línea es una amenaza obvia a corto plazo, al igual que la guerra autónoma parece plausible a mediano plazo. Más allá en el horizonte acecha la promesa de la inteligencia artificial general, el punto aún incierto en el que la IA supera el rendimiento humano en cualquier tarea determinada y el peligro (ciertamente especulativo) de que la AGI podría volverse autodirigida, autorreplicante y automejoradora. más allá del control humano. Todos estos peligros deben tenerse en cuenta en la arquitectura de gobernanza desde el principio.

La IA no es la primera tecnología con algunas de estas potentes características, pero es la primera en combinarlas todas. Los sistemas de IA no son como los automóviles o los aviones, que se basan en hardware susceptible de mejoras incrementales y cuyas fallas más costosas se presentan en forma de accidentes individuales. No son como las armas químicas o nucleares, que son difíciles y costosas de desarrollar y almacenar, y mucho menos compartir o desplegar en secreto. A medida que sus enormes beneficios se vuelvan evidentes, los sistemas de IA solo se harán más grandes, mejores, más baratos y más ubicuos. Incluso se volverán capaces de casi autonomía, capaces de lograr objetivos concretos con una mínima supervisión humana, y, potencialmente, de superación personal. Cualquiera de estas características desafiaría los modelos de gobernanza tradicionales; todos juntos hacen que estos modelos sean irremediablemente inadecuados.

DEMASIADO PODEROSO PARA PAUSAR

Como si eso no fuera suficiente, al cambiar la estructura y el equilibrio del poder global, la IA complica el propio contexto político en el que se gobierna. AI no es solo el desarrollo de software como de costumbre; es un medio completamente nuevo de proyectar poder. En algunos casos, cambiará las autoridades existentes; en otros, los afianzará. Además, su avance está siendo impulsado por incentivos irresistibles: cada nación, corporación e individuo querrán alguna versión de él.

Dentro de los países, la IA empoderará a quienes la empleen para vigilar, engañar e incluso controlar a las poblaciones, potenciando la recopilación y el uso comercial de datos personales en las democracias y agudizando las herramientas de represión que utilizan los gobiernos autoritarios para someter a sus sociedades. En todos los países, la IA será el foco de una intensa competencia geopolítica. Ya sea por sus capacidades represivas, potencial económico o ventaja militar, la supremacía de la IA será un objetivo estratégico de todo gobierno con los recursos para competir. Las estrategias menos imaginativas inyectarán dinero en campeones de IA de cosecha propia o intentarán construir y controlar supercomputadoras y algoritmos. Las estrategias más matizadas fomentarán ventajas competitivas específicas, como Francia busca hacer apoyando directamente a las nuevas empresas de IA; el reino unido, capitalizando sus universidades de clase mundial y su ecosistema de capital de riesgo; y la UE, dando forma a la conversación global sobre regulación y normas.

La gran mayoría de los países no tienen ni el dinero ni los conocimientos tecnológicos para competir por el liderazgo de la IA. En cambio, su acceso a la IA de frontera estará determinado por sus relaciones con un puñado de corporaciones y estados que ya son ricos y poderosos. Esta dependencia amenaza con agravar los desequilibrios de poder geopolíticos actuales. Los gobiernos más poderosos competirán por controlar el recurso más valioso del mundo mientras que, una vez más, los países del Sur global se quedarán atrás. Esto no quiere decir que solo los más ricos se beneficiarán de la revolución de la IA. Al igual que Internet y los teléfonos inteligentes, la IA proliferará sin respetar fronteras, al igual que las ganancias de productividad que desencadena. Y al igual que la energía y la tecnología verde, la IA beneficiará a muchos países que no la controlan.

Sin embargo, en el otro extremo del espectro geopolítico, la competencia por la supremacía de la IA será feroz. Al final de la Guerra Fría, los países poderosos podrían haber cooperado para disipar los temores de los demás y detener una carrera armamentista tecnológica potencialmente desestabilizadora. Pero el tenso entorno geopolítico actual hace que esa cooperación sea mucho más difícil. La IA no es solo otra herramienta o arma que puede traer prestigio, poder o riqueza. Tiene el potencial de permitir una ventaja militar y económica significativa sobre los adversarios. Con razón o sin ella, los dos jugadores que más importan, China y Estados Unidos, ven el desarrollo de la IA como un juego de suma cero que le dará al ganador una ventaja estratégica decisiva en las próximas décadas. 

 

Tanto China como Estados Unidos ven el desarrollo de la IA como un juego de suma cero.

Desde el punto de vista de Washington y Beijing, el riesgo de que la otra parte obtenga una ventaja en IA es mayor que cualquier riesgo teórico que la tecnología pueda representar para la sociedad o para su propia autoridad política nacional. Por esa razón, tanto el gobierno de EE. UU. como el de China están invirtiendo inmensos recursos en el desarrollo de capacidades de inteligencia artificial mientras trabajan para privarse mutuamente de los insumos necesarios para los avances de próxima generación. (Hasta ahora, Estados Unidos ha tenido mucho más éxito que China en hacer esto último, especialmente con sus controles de exportación de semiconductores avanzados). Esta dinámica de suma cero, y la falta de confianza en ambos lados, significa que Beijing y Washington están centrado en acelerar el desarrollo de la IA, en lugar de ralentizarlo. En su opinión, una “pausa” en el desarrollo para evaluar los riesgos, como han pedido algunos líderes de la industria de la IA, 

Pero esta perspectiva asume que los estados pueden afirmar y mantener al menos cierto control sobre la IA. Este puede ser el caso de China, que ha integrado sus empresas tecnológicas en el tejido del estado. Sin embargo, en Occidente y en otros lugares, es más probable que la IA socave el poder estatal que lo refuerce. Fuera de China, un puñado de grandes empresas especializadas en IA actualmente controlan todos los aspectos de esta nueva ola tecnológica: qué pueden hacer los modelos de IA, quién puede acceder a ellos, cómo se pueden usar y dónde se pueden implementar. Y debido a que estas empresas guardan celosamente su poder de cómputo y algoritmos, solo ellas entienden (la mayor parte) de lo que están creando y (la mayor parte) de lo que pueden hacer esas creaciones. Estas pocas empresas pueden conservar su ventaja en el futuro previsible, o pueden verse eclipsadas por una serie de jugadores más pequeños como barreras de entrada bajas, el desarrollo de código abierto y los costos marginales cercanos a cero conducen a la proliferación descontrolada de la IA. De cualquier manera, la revolución de la IA tendrá lugar fuera del gobierno. 

Hasta cierto punto, algunos de estos desafíos se asemejan a los de las tecnologías digitales anteriores. Las plataformas de Internet, las redes sociales e incluso dispositivos como los teléfonos inteligentes funcionan, hasta cierto punto, dentro de cajas de arena controladas por sus creadores. Cuando los gobiernos han reunido la voluntad política, han podido implementar regímenes regulatorios para estas tecnologías, como el Reglamento General de Protección de Datos de la UE, la Ley de Mercados Digitales y la Ley de Servicios Digitales. Pero dicha regulación tardó una década o más en materializarse en la UE, y aún no se ha materializado por completo en los Estados Unidos. La IA se mueve demasiado rápido para que los formuladores de políticas respondan a su ritmo habitual. Además, las redes sociales y otras tecnologías digitales más antiguas no ayudan a crearse a sí mismas, y los intereses comerciales y estratégicos que las impulsan nunca encajaron de la misma manera: 

Todo esto significa que, al menos durante los próximos años, la trayectoria de AI estará determinada en gran medida por las decisiones de un puñado de empresas privadas, independientemente de lo que hagan los políticos en Bruselas o Washington. En otras palabras, los tecnólogos, no los políticos ni los burócratas, ejercerán autoridad sobre una fuerza que podría alterar profundamente tanto el poder de los estados-nación como la forma en que se relacionan entre sí. Eso hace que el desafío de gobernar la IA sea diferente a todo lo que los gobiernos hayan enfrentado antes, un acto de equilibrio regulatorio más delicado, y más en juego, de lo que cualquier legislador haya intentado.

BLANCO EN MOVIMIENTO, ARMA EN EVOLUCIÓN

Los gobiernos ya están detrás de la curva. La mayoría de las propuestas para gobernar la IA la tratan como un problema convencional susceptible de las soluciones centradas en el estado del siglo XX: compromisos sobre reglas discutidas por líderes políticos sentados alrededor de una mesa. Pero eso no funcionará para la IA.

Los esfuerzos regulatorios hasta la fecha están en su infancia y aún son inadecuados. La Ley de IA de la UE es el intento más ambicioso de regular la IA en cualquier jurisdicción, pero solo se aplicará en su totalidad a partir de 2026, momento en el cual los modelos de IA habrán avanzado más allá del reconocimiento. El Reino Unido ha propuesto un enfoque voluntario aún más flexible para regular la IA, pero le faltan los dientes para ser efectivo. Ninguna de las iniciativas intenta gobernar el desarrollo y la implementación de la IA a nivel mundial, algo que será necesario para que la gobernanza de la IA tenga éxito. Y si bien las promesas voluntarias de respetar las pautas de seguridad de la IA, como las que hicieron en julio siete desarrolladores líderes de IA, incluido Inflection AI, dirigido por uno de nosotros (Suleyman), son bienvenidas, no reemplazan la regulación nacional e internacional legalmente vinculante.

Los defensores de los acuerdos a nivel internacional para domar la IA tienden a adoptar el modelo de control de armas nucleares. Pero los sistemas de IA no solo son infinitamente más fáciles de desarrollar, robar y copiar que las armas nucleares; están controlados por empresas privadas, no por gobiernos. A medida que la nueva generación de modelos de IA se difunde más rápido que nunca, la comparación nuclear parece cada vez más obsoleta. Incluso si los gobiernos pueden controlar con éxito el acceso a los materiales necesarios para construir los modelos más avanzados, como intenta hacer la administración Biden al evitar que China adquiera chips avanzados, poco pueden hacer para detener la proliferación de esos modelos una vez que están entrenados y por lo tanto, requieren muchos menos chips para funcionar.

Para que la gobernanza global de la IA funcione, debe adaptarse a la naturaleza específica de la tecnología, los desafíos que plantea y la estructura y el equilibrio de poder en el que opera. Pero debido a que la evolución, los usos, los riesgos y las recompensas de la IA son impredecibles, la gobernanza de la IA no puede especificarse por completo desde el principio, ni en ningún momento, para el caso. Debe ser tan innovadora y evolutiva como la tecnología que busca gobernar, compartiendo algunas de las características que hacen de la IA una fuerza tan poderosa en primer lugar. Eso significa comenzar desde cero, repensar y reconstruir un nuevo marco regulatorio desde cero.

El objetivo general de cualquier arquitectura regulatoria global de IA debe ser identificar y mitigar los riesgos para la estabilidad global sin sofocar la innovación de IA y las oportunidades que surgen de ella. Llame a este enfoque “tecnoprudencialismo”, un mandato similar al papel macroprudencial que desempeñan las instituciones financieras mundiales como la Junta de Estabilidad Financiera, el Banco de Pagos Internacionales y el Fondo Monetario Internacional. Su objetivo es identificar y mitigar los riesgos para la estabilidad financiera mundial sin poner en peligro el crecimiento económico.

 

Guardias en una conferencia de Huawei en Shanghái, septiembre de 2019
Canción de Aly / Reuters

 

Un mandato tecnoprudencial funcionaría de manera similar, necesitando la creación de mecanismos institucionales para abordar los diversos aspectos de la IA que podrían amenazar la estabilidad geopolítica. Estos mecanismos, a su vez, estarían guiados por principios comunes que se adaptan a las características únicas de AI y reflejan el nuevo equilibrio tecnológico de poder que ha puesto a las empresas tecnológicas en el asiento del conductor. Estos principios ayudarían a los formuladores de políticas a elaborar marcos regulatorios más granulares para gobernar la IA a medida que evoluciona y se convierte en una fuerza más generalizada.

El primer principio y quizás el más vital para la gobernanza de la IA es la precaución.Como implica el término, el tecnoprudencialismo está guiado en esencia por el credo de precaución: primero, no hacer daño. Restringir al máximo la IA significaría renunciar a sus ventajas que alteran la vida, pero liberarla al máximo significaría arriesgar todas sus desventajas potencialmente catastróficas. En otras palabras, el perfil de riesgo-recompensa de la IA es asimétrico. Dada la incertidumbre radical sobre la escala y la irreversibilidad de algunos de los daños potenciales de la IA, la gobernanza de la IA debe apuntar a prevenir estos riesgos antes de que se materialicen en lugar de mitigarlos después del hecho. Esto es especialmente importante porque la IA podría debilitar la democracia en algunos países y dificultarles la promulgación de regulaciones. Además, la carga de probar que un sistema de IA es seguro por encima de un umbral razonable debe recaer en el desarrollador y el propietario; no debería ser responsabilidad exclusiva de los gobiernos tratar los problemas una vez que surjan.

El gobierno de la IA también debe ser ágil para que pueda adaptarse y corregir el rumbo a medida que la IA evoluciona y se mejora. Las instituciones públicas a menudo se calcifican hasta el punto de no poder adaptarse al cambio. Y en el caso de la IA, la mera velocidad del progreso tecnológico abrumará rápidamente la capacidad de las estructuras de gobierno existentes para ponerse al día y mantenerse al día. Esto no significa que la gobernanza de la IA deba adoptar el espíritu de “moverse rápido y romper cosas” de Silicon Valley, pero debería reflejar más de cerca la naturaleza de la tecnología que busca contener. 

Además de ser preventivo y ágil, la gobernanza de la IA debe ser inclusiva, invitando a la participación de todos los actores necesarios para regular la IA en la práctica. Eso significa que la gobernanza de la IA no puede estar centrada exclusivamente en el estado, ya que los gobiernos no entienden ni controlan la IA. Las empresas privadas de tecnología pueden carecer de soberanía en el sentido tradicional, pero ejercen poder y agencia reales, incluso soberanos, en los espacios digitales que han creado y gobiernan de manera efectiva. A estos actores no estatales no se les deben otorgar los mismos derechos y privilegios que los estados, que son internacionalmente reconocidos por actuar en nombre de sus ciudadanos. Pero deberían ser partes en cumbres internacionales y signatarios de cualquier acuerdo sobre IA. 

Tal ampliación de la gobernanza es necesaria porque cualquier estructura regulatoria que excluya a los verdaderos agentes del poder de la IA está condenada al fracaso. En oleadas anteriores de regulación tecnológica, las empresas a menudo tenían tanto margen de maniobra que se excedieron, lo que llevó a los legisladores y reguladores a reaccionar con dureza a sus excesos. Pero esta dinámica no benefició ni a las empresas tecnológicas ni al público. Invitar a los desarrolladores de IA a participar en el proceso de creación de reglas desde el principio ayudaría a establecer una cultura más colaborativa de gobierno de IA, reduciendo la necesidad de controlar a estas empresas después del hecho con regulaciones costosas y antagónicas.

 

La IA es un problema de los bienes comunes globales, no solo el dominio exclusivo de dos superpotencias.

Las empresas tecnológicas no siempre deberían tener voz; Es mejor dejar algunos aspectos de la gobernanza de la IA en manos de los gobiernos, y no hace falta decir que los estados siempre deben conservar el poder de veto final sobre las decisiones políticas. Los gobiernos también deben protegerse contra la captura regulatoria para garantizar que las empresas tecnológicas no utilicen su influencia dentro de los sistemas políticos para promover sus intereses a expensas del bien público. Pero un modelo de gobernanza inclusivo y de múltiples partes interesadas garantizaría que los actores que determinarán el destino de la IA participen en los procesos de elaboración de normas y estén sujetos a ellos.Además de los gobiernos (especialmente, entre otros, China y los Estados Unidos) y las empresas tecnológicas (especialmente, entre otros, los jugadores de Big Tech), científicos, especialistas en ética, sindicatos, organizaciones de la sociedad civil y otras voces con conocimiento de poder. más, o una participación en los resultados de la IA debería tener un asiento en la mesa. La Asociación sobre IA, un grupo sin fines de lucro que reúne a una variedad de grandes empresas tecnológicas, instituciones de investigación, organizaciones benéficas y organizaciones de la sociedad civil para promover el uso responsable de la IA, es un buen ejemplo del tipo de foro mixto e inclusivo que se necesita.

La gobernanza de la IA también debe ser lo más impermeable posible. A diferencia de la mitigación del cambio climático, donde el éxito estará determinado por la suma de todos los esfuerzos individuales, la seguridad de la IA está determinada por el mínimo común denominador: un solo algoritmo de ruptura podría causar un daño incalculable. Debido a que la gobernanza global de la IA es tan buena como el país, la empresa o la tecnología peor gobernados, debe ser infalible en todas partes, con una entrada lo suficientemente fácil como para obligar a la participación y una salida lo suficientemente costosa como para disuadir el incumplimiento. Una única escapatoria, un eslabón débil o un desertor deshonesto abrirán la puerta a una fuga generalizada, malos actores o una carrera regulatoria hacia el abismo. 

Además de cubrir todo el mundo, la gobernanza de la IA debe cubrir toda la cadena de suministro, desde la fabricación hasta el hardware, desde el software hasta los servicios y desde los proveedores hasta los usuarios. Esto significa regulación y supervisión tecnoprudenciales a lo largo de cada nodo de la cadena de valor de IA, desde la producción de chips de IA hasta la recopilación de datos, la capacitación de modelos hasta el uso final, y en toda la pila de tecnologías utilizadas en una aplicación determinada. Tal impermeabilidad garantizará que no haya áreas grises regulatorias que explotar. 

Finalmente, la gobernanza de la IA deberá ser específica, en lugar de una talla única para todos. Debido a que la IA es una tecnología de uso general, plantea amenazas multidimensionales. Una sola herramienta de gobernanza no es suficiente para abordar las diversas fuentes de riesgo de IA. En la práctica, determinar qué herramientas son apropiadas para abordar qué riesgos requerirá el desarrollo de una taxonomía viviente de todos los posibles efectos que la IA podría tener, y cómo se puede gobernar mejor cada uno. Por ejemplo, la IA será evolutiva en algunas aplicaciones, exacerbando los problemas actuales, como las violaciones de la privacidad, y revolucionaria en otras, creando daños completamente nuevos. A veces, el mejor lugar para intervenir será donde se recopilan los datos. Otras veces, será el punto en el que se venderán los chips avanzados, lo que garantizará que no caigan en las manos equivocadas. Lidiar con la desinformación y la información errónea requerirá herramientas diferentes a las de lidiar con los riesgos de AGI y otras tecnologías inciertas con ramificaciones potencialmente existenciales. Un ligero toque regulatorio y una guía voluntaria funcionarán en algunos casos; en otros, los gobiernos tendrán que imponer estrictamente el cumplimiento.

Todo esto requiere una comprensión profunda y un conocimiento actualizado de las tecnologías en cuestión. Los reguladores y otras autoridades necesitarán supervisión y acceso a modelos clave de IA. En efecto, necesitarán un sistema de auditoría que no solo pueda rastrear las capacidades a distancia, sino también acceder directamente a las tecnologías centrales, lo que a su vez requerirá el talento adecuado. Solo tales medidas pueden garantizar que las nuevas aplicaciones de IA se evalúen de manera proactiva, tanto para los riesgos obvios como para las consecuencias potencialmente disruptivas de segundo y tercer orden. La gobernanza dirigida, en otras palabras, debe ser una gobernanza bien informada.

EL IMPERATIVO TECNOPRUDENCIAL

Sobre la base de estos principios debe haber un mínimo de tres regímenes de gobernanza de IA, cada uno con diferentes mandatos, palancas y participantes. Todos tendrán que tener un diseño novedoso, pero cada uno podría inspirarse en los arreglos existentes para abordar otros desafíos globales, a saber, el cambio climático, la proliferación de armas y la estabilidad financiera.

El primer régimen se centraría en la investigación de hechos y tomaría la forma de un organismo científico global para asesorar objetivamente a los gobiernos y organismos internacionales sobre cuestiones tan básicas como qué es la IA y qué tipo de desafíos políticos plantea. Si nadie puede ponerse de acuerdo sobre la definición de IA o el posible alcance de sus daños, la formulación de políticas efectivas será imposible. Aquí, el cambio climático es instructivo. Para crear una base de conocimiento compartido para las negociaciones climáticas, las Naciones Unidasestableció el Panel Intergubernamental sobre el Cambio Climático y le dio un mandato simple: proporcionar a los formuladores de políticas “evaluaciones periódicas de la base científica del cambio climático, sus impactos y riesgos futuros, y opciones para la adaptación y la mitigación”. La IA necesita un organismo similar para evaluar regularmente el estado de la IA, evaluar de manera imparcial sus riesgos e impactos potenciales, pronosticar escenarios y considerar soluciones de políticas técnicas para proteger el interés público global. Al igual que el IPCC, este organismo tendría un imprimatur global e independencia científica (y geopolítica). Y sus informes podrían informar las negociaciones multilaterales y de múltiples partes interesadas sobre la IA, al igual que los informes del IPCC informan las negociaciones climáticas de la ONU.

El mundo también necesita una forma de gestionar las tensiones entre las principales potencias de IA y evitar la proliferación de peligrosos sistemas avanzados de IA. La relación internacional más importante en IA es la que existe entre Estados Unidos y China. La cooperación entre los dos rivales es difícil de lograr en las mejores circunstancias. Pero en el contexto de una mayor competencia geopolítica, una carrera de IA descontrolada podría arruinar toda esperanza de forjar un consenso internacional sobre la gobernanza de la IA. Un área en la que a Washington y Beijing les puede resultar ventajoso trabajar juntos es en la desaceleración de la proliferación de sistemas poderosos que podrían poner en peligro la autoridad de los estados-nación. En el extremo, la amenaza de AGI autorreplicantes y no controlados, en caso de que se inventen en los próximos años, proporcionaría fuertes incentivos para coordinar la seguridad y la contención.

En todos estos frentes, Washington y Beijing deberían apuntar a crear áreas comunes e incluso barandillas propuestas y vigiladas por un tercero. Aquí, los enfoques de monitoreo y verificación que a menudo se encuentran en los regímenes de control de armas podrían aplicarse a las entradas de IA más importantes, específicamente aquellas relacionadas con el hardware informático, incluidos los semiconductores avanzados y los centros de datos. La regulación de cuellos de botella clave ayudó a contener una carrera armamentista peligrosa durante la Guerra Fría, y podría ayudar a contener una carrera de IA potencialmente aún más peligrosa ahora.

 

Pocos electorados poderosos están a favor de contener la IA.

Pero dado que gran parte de la IA ya está descentralizada, es un problema de los bienes comunes globales en lugar de la reserva de dos superpotencias. La naturaleza descentralizada del desarrollo de IA y las características centrales de la tecnología, como la proliferación de código abierto, aumentan la probabilidad de que los ciberdelincuentes, los actores patrocinados por el estado y los lobos solitarios la usen como arma. Es por eso que el mundo necesita un tercer régimen de gobernanza de IA que pueda reaccionar cuando ocurren interrupciones peligrosas. Como modelos, los formuladores de políticas podrían considerar el enfoque que las autoridades financieras han utilizado para mantener la estabilidad financiera mundial. El Consejo de Estabilidad Financiera, compuesto por banqueros centrales, ministerios de finanzas y autoridades de supervisión y regulación de todo el mundo, trabaja para prevenir la inestabilidad financiera global evaluando las vulnerabilidades sistémicas y coordinando las acciones necesarias para abordarlas entre las autoridades nacionales e internacionales. Un organismo tecnocrático similar para el riesgo de IA, llámelo Junta de Estabilidad de Geotecnología, podría trabajar para mantener la estabilidad geopolítica en medio de un cambio rápido impulsado por IA. Con el apoyo de las autoridades reguladoras nacionales y los organismos internacionales de establecimiento de normas, reuniría la experiencia y los recursos para anticiparse o responder a las crisis relacionadas con la IA, reduciendo el riesgo de contagio. Pero también se involucraría directamente con el sector privado, reconociendo que los actores tecnológicos multinacionales clave juegan un papel fundamental en el mantenimiento de la estabilidad geopolítica, tal como lo hacen los bancos de importancia sistémica en el mantenimiento de la estabilidad financiera. Un organismo tecnocrático similar para el riesgo de IA, llámelo Junta de Estabilidad de Geotecnología, podría trabajar para mantener la estabilidad geopolítica en medio de un cambio rápido impulsado por IA. Con el apoyo de las autoridades reguladoras nacionales y los organismos internacionales de establecimiento de normas, reuniría la experiencia y los recursos para anticiparse o responder a las crisis relacionadas con la IA, reduciendo el riesgo de contagio. Pero también se involucraría directamente con el sector privado, reconociendo que los actores tecnológicos multinacionales clave juegan un papel fundamental en el mantenimiento de la estabilidad geopolítica, tal como lo hacen los bancos de importancia sistémica en el mantenimiento de la estabilidad financiera. Un organismo tecnocrático similar para el riesgo de IA, llámelo Junta de Estabilidad de Geotecnología, podría trabajar para mantener la estabilidad geopolítica en medio de un cambio rápido impulsado por IA. Con el apoyo de las autoridades reguladoras nacionales y los organismos internacionales de establecimiento de normas, reuniría la experiencia y los recursos para anticiparse o responder a las crisis relacionadas con la IA, reduciendo el riesgo de contagio. Pero también se involucraría directamente con el sector privado, reconociendo que los actores tecnológicos multinacionales clave juegan un papel fundamental en el mantenimiento de la estabilidad geopolítica, tal como lo hacen los bancos de importancia sistémica en el mantenimiento de la estabilidad financiera. reuniría la experiencia y los recursos para prevenir o responder a las crisis relacionadas con la IA, reduciendo el riesgo de contagio. Pero también se involucraría directamente con el sector privado, reconociendo que los actores tecnológicos multinacionales clave juegan un papel fundamental en el mantenimiento de la estabilidad geopolítica, tal como lo hacen los bancos de importancia sistémica en el mantenimiento de la estabilidad financiera. reuniría la experiencia y los recursos para prevenir o responder a las crisis relacionadas con la IA, reduciendo el riesgo de contagio. Pero también se involucraría directamente con el sector privado, reconociendo que los actores tecnológicos multinacionales clave juegan un papel fundamental en el mantenimiento de la estabilidad geopolítica, tal como lo hacen los bancos de importancia sistémica en el mantenimiento de la estabilidad financiera.

Tal organismo, con autoridad arraigada en el apoyo del gobierno, estaría bien posicionado para evitar que los actores tecnológicos globales participen en el arbitraje regulatorio o se escondan detrás de los domicilios corporativos. Reconocer que algunas empresas de tecnología son sistémicamente importantes no significa sofocar a las nuevas empresas o a los innovadores emergentes. Por el contrario, crear una línea única y directa desde un organismo de gobierno global hasta estos gigantes tecnológicos mejoraría la eficacia de la aplicación de las normas y la gestión de crisis, que benefician a todo el ecosistema.

Un régimen diseñado para mantener la estabilidad geotecnológica también llenaría un vacío peligroso en el panorama regulatorio actual: la responsabilidad de gobernar la IA de código abierto. Será necesario cierto nivel de censura en línea. Si alguien sube un modelo extremadamente peligroso, este organismo debe tener la autoridad y la capacidad claras para eliminarlo o indicar a las autoridades nacionales que lo hagan. Esta es otra área de posible cooperación bilateral. China y Estados Unidos deberían querer trabajar juntos para incorporar restricciones de seguridad en el software de código abierto, por ejemplo, limitando la medida en que los modelos pueden instruir a los usuarios sobre cómo desarrollar armas químicas o biológicas o crear patógenos pandémicos. Además, puede haber espacio para que Beijing y Washington cooperen en los esfuerzos globales contra la proliferación,

Cada uno de estos regímenes tendría que operar universalmente, disfrutando de la aceptación de todos los principales actores de la IA. Los regímenes tendrían que estar lo suficientemente especializados para hacer frente a los sistemas reales de IA y lo suficientemente dinámicos para seguir actualizando su conocimiento de la IA a medida que evoluciona. Trabajando juntas, estas instituciones podrían dar un paso decisivo hacia la gestión tecnoprudencial del mundo emergente de la IA. Pero de ninguna manera son las únicas instituciones que se necesitarán. Otros mecanismos regulatorios, como los estándares de transparencia de “conozca a su cliente”, los requisitos de licencia, los protocolos de prueba de seguridad y los procesos de registro y aprobación de productos, deberán aplicarse a la IA en los próximos años. La clave de todas estas ideas será crear instituciones de gobierno flexibles y multifacéticas que no estén limitadas por la tradición o la falta de imaginación; después de todo,

PROMOVER LO MEJOR, PREVENIR LO PEOR

Ninguna de estas soluciones será fácil de implementar. A pesar de todos los rumores y charlas de los líderes mundiales sobre la necesidad de regular la IA, todavía falta voluntad política para hacerlo. En este momento, pocos electores poderosos están a favor de contener la IA, y todos los incentivos apuntan hacia una inacción continua. Pero bien diseñado, un régimen de gobernanza de IA del tipo descrito aquí podría adaptarse a todas las partes interesadas, consagrando principios y estructuras que promueven lo mejor en IA y previenen lo peor. La alternativa, la IA no contenida, no solo plantearía riesgos inaceptables para la estabilidad global; también sería malo para los negocios y sería contrario al interés nacional de todos los países. 

Un régimen de gobernanza de IA fuerte mitigaría los riesgos sociales que plantea la IA y aliviaría las tensiones entre China y los Estados Unidos al reducir la medida en que la IA es un escenario y una herramienta de competencia geopolítica. Y tal régimen lograría algo aún más profundo y duradero: establecería un modelo sobre cómo abordar otras tecnologías emergentes disruptivas. La IA puede ser un catalizador único para el cambio, pero de ninguna manera es la última tecnología disruptiva que enfrentará la humanidad. La computación cuántica, la biotecnología, la nanotecnología y la robótica también tienen el potencial de remodelar fundamentalmente el mundo. Gobernar con éxito la IA ayudará al mundo a gobernar con éxito esas tecnologías también. 

El siglo XXI presentará pocos desafíos tan abrumadores u oportunidades tan prometedoras como las que presenta la IA. En el siglo pasado, los formuladores de políticas comenzaron a construir una arquitectura de gobernanza global que, esperaban, estaría a la altura de las tareas de la época. Ahora, deben construir una nueva arquitectura de gobierno para contener y aprovechar la fuerza más formidable y potencialmente definitoria de esta era. El año 2035 está a la vuelta de la esquina. No hay tiempo que perder.

 

Vía: The Foreign affairs