{"id":37375,"date":"2024-08-27T14:00:00","date_gmt":"2024-08-27T17:00:00","guid":{"rendered":"https:\/\/www.iri.edu.ar\/?p=37375"},"modified":"2024-09-23T11:12:46","modified_gmt":"2024-09-23T14:12:46","slug":"discusion-sobre-un-desafio-existencial-regulacion-internacional-de-la-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/www.iri.edu.ar\/index.php\/2024\/08\/27\/discusion-sobre-un-desafio-existencial-regulacion-internacional-de-la-inteligencia-artificial\/","title":{"rendered":"Discusi\u00f3n sobre un desaf\u00edo existencial: regulaci\u00f3n internacional de la Inteligencia Artificial"},"content":{"rendered":"<p class=\"departamento\">Departamento de Relaciones Econ\u00f3micas Internacionales<\/p>\n<h6>Estudios<\/h6>\n<h1>Discusi\u00f3n sobre un desaf\u00edo existencial: regulaci\u00f3n internacional de la Inteligencia Artificial<\/h1>\n<p class=\"autor\">Julio Sevares<a href=\"#_ftn1\" name=\"_ftnref1\"><sup><strong>[1]<\/strong><\/sup><\/a><\/p>\n<p class=\"frases\"><em>\u201cTodo muere, chica, as\u00ed es la cosa.<br \/>\nY, si el mundo no puede manejar la actual carrera en la superhumana inteligencia artificial entre los grandes poderes,<br \/>\ntodo puede morir mucho antes de lo esperado\u201d<\/em><a href=\"#_ftn2\" name=\"_ftnref2\"><sup><strong>[2]<\/strong><\/sup><\/a><\/p>\n<p>El desarrollo de la Inteligencia Artificial (IA) ha dado lugar a un nuevo riesgo global, concepto tratado por el soci\u00f3logo alem\u00e1n Ulrich Beck (2002 p.5), seg\u00fan el cual las sociedades est\u00e1n expuestas a riesgos, como los ecol\u00f3gicos, que son las consecuencias no deseadas de la acci\u00f3n humana en la \u201ccontempor\u00e1nea modernidad radicalizada\u201d. Toda sociedad ha sufrido riesgos, sostiene Beck, pero \u201cen el nuevo orden el riesgo es global no nacional\u201d<\/p>\n<p>En la actualidad la IA se ha convertido en un nuevo riesgo global y sus efectos esperados sobre las sociedades y las relaciones de poder internacionales ha dado lugar a las primeras discusiones para una regulaci\u00f3n de la nueva tecnolog\u00eda. Estas negociaciones aparecen tanto o m\u00e1s dif\u00edcil que otras que se mantienen en temas como el clima o las finanzas, por los enormes intereses nacionales, econ\u00f3micos y estrat\u00e9gicos, en colisi\u00f3n.<\/p>\n<h2>IA, el nuevo desaf\u00edo existencial global.<\/h2>\n<p>Una de las principales razones de la importancia de la IA para los estados es su aplicaci\u00f3n en actividades vinculadas con la seguridad y las armas. La IA se utiliza para la fabricaci\u00f3n y operaci\u00f3n de armas, para procesar informaciones tomadas de otros estados o de ciudadanos de otros estados y para la c\u00edber seguridad propia o el ataque a la c\u00edber seguridad de otros pa\u00edses.<\/p>\n<p>Un analista en el tema sostiene que, entre las potencias, existe la percepci\u00f3n de que est\u00e1 teniendo lugar una carrera armamentista de IA y que la presi\u00f3n por adelantarse a los adversarios est\u00e1 empujando a gobiernos y corporaciones a desarrollar esa tecnolog\u00eda que todav\u00eda no es completamente entendida o controlada. Esta competencia, como cualquier carrera armamentista, concluye, puede tener efectos estrat\u00e9gicos desestabilizadores (Meacham, 2023).<\/p>\n<p>En la IA, la competencia geopol\u00edtica entre Estados Unidos y China puede traer cambios fundamentales en la capacidad militar, por lo cual los l\u00edderes mundiales reconocen ese poder transformador como un componente cr\u00edtico de la seguridad nacional (Johnson, 2019)<\/p>\n<p>Vladimir Putin conoce el tema: en 2017, cinco a\u00f1os antes de invadir Ucrania, con armas que utilizan IA, sostuvo que \u201cla Inteligencia Artificial es el futuro, no solo para Rusia sino para toda la humanidad\u2026El que sea el l\u00edder en esa esfera se convertir\u00e1 en el se\u00f1or del mundo\u201d <a href=\"#_ftn3\" name=\"_ftnref3\"><sup>[3]<\/sup><\/a><\/p>\n<h2>Temores y advertencias<\/h2>\n<p>El avance en la utilizaci\u00f3n de IA ha generado numerosas advertencias de expertos sobre su impacto en la sociedad. En marzo de 2023 m\u00e1s de mil expertos, incluyendo dirigentes de grandes tecnol\u00f3gicas como Elon Musk, publicaron una carta en la que advierten que los laboratorios est\u00e1n haciendo una carrera fuera de control desarrollando una tecnolog\u00eda que ni siquiera ellos comprenden ni saben si podr\u00e1n controlar, por la que piden frenar el desarrollo de la IA.<a href=\"#_ftn4\" name=\"_ftnref4\"><sup>[4]<\/sup><\/a><\/p>\n<p>Tambi\u00e9n se realizaron numeroso llamados de atenci\u00f3n sobre la posibilidad de una exacerbaci\u00f3n del enfrentamiento entre China y Estados Unidos, incluso algunas dentro del pa\u00eds asi\u00e1tico: una revisi\u00f3n de documentos de militares chinos sobre inteligencia artificial, realizada por un investigador de la Universidad de Georgetown, revela que en el sector militar se formularon advertencias sobre el peligro que surge de las posibilidades de un mal manejo de la tecnolog\u00eda y sobre las dificultades que implica chequear y evaluar los sistemas de IA militares. Esto incluye la posibilidad de que armas que funcionan en forma aut\u00f3noma, guiadas por la IA, puedan desatar escaladas b\u00e9licas.<\/p>\n<h2>Negociando la amenaza<\/h2>\n<p>El desaf\u00edo de la IA ha dado lugar a numerosos encuentros y acuerdos privados y oficiales para discutir el manejo internacional de la inquietante tecnolog\u00eda.<\/p>\n<p>Algunas de ellas, al mejor estilo de las negociaciones sobre el control de la carrera armamentista que tuvieron desde el fin de la Segunda Guerra Mundial.<\/p>\n<p>La primera iniciativa en ese sentido fue la constituci\u00f3n de la Conference on Artificial Intelligence and Law (ICAIL), en 1987, formada por acad\u00e9micos de varios pa\u00edses. Desde entonces la Conferencia tiene reuniones bianuales y que ser\u00e1 anual a partir de la pr\u00f3xima reuni\u00f3n de 2025.<\/p>\n<p>En febrero de 2023, en La Haya, tuvo lugar la primer cumbre en Responsible Artificial Intelligence in the Military Domain (REAIM), con la participaci\u00f3n de funcionarios de 60 pa\u00edses, incluyendo a Estados Unidos y China, que proporciona una plataforma para discutir oportunidades, desaf\u00edos y riesgos asociados con la utilizaci\u00f3n militar de la IA.<a href=\"#_ftn5\" name=\"_ftnref5\"><sup>[5]<\/sup><\/a><\/p>\n<p>En ese cuadro Estados Unidos dio a conocer una Declaraci\u00f3n Pol\u00edtica sobre el Uso Militar Responsable de IA, con el prop\u00f3sito de construir un consenso internacional sobre el tema. (U.S. Department of State, 2023)<\/p>\n<p>Tres meses despu\u00e9s, en su reuni\u00f3n de mayo de 2023 en Hiroshima, el G7 (G7 2023) emiti\u00f3 sus Principios Gu\u00eda para las Organizaciones Desarrollando Sistemas de IA Avanzados dirigida a gobiernos y empresas pero tambi\u00e9n a instituciones acad\u00e9micas y organizaciones de la sociedad civil. Su objetivo es promover una IA mundial segura y confiable.<\/p>\n<p>En agosto de 2023, el Consejo de Seguridad de la ONU tuvo un primer debate sobre gobernanza de IA basado en la necesidad de confrontar la nueva realidad creada por esa tecnolog\u00eda. En el mismo los concurrentes se\u00f1alaron las oportunidades y desaf\u00edos que presenta para la paz internacional, la seguridad, el desarrollo sustentable y los derechos humanos (IISD 2023)<\/p>\n<p>Ese mismo mes, la Secretar\u00eda General del Organismo cre\u00f3 el Cuerpo de Asesores de Alto Nivel para IA, con expertos de 128 pa\u00edses (U.N. 2023)<\/p>\n<p>En octubre, el presidente Joe Biden emiti\u00f3 una Orden Ejecutiva estableciendo como la m\u00e1s alta urgencia gobernar el desarrollo y uso de la IA en forma segura y responsable. El gobierno afirma que, con ese objetivo, se comprometer\u00e1 con aliados y socios en desarrollar un marco para manejar los riesgos de la IA y promover iniciativas comunes para compartir desaf\u00edos. Esta b\u00fasqueda incluir\u00e1, explicita el documento, conversaciones con competidores (White House 2023)<\/p>\n<p>Por lo que respecta a China, en octubre de 2023 el Ministerio de Asuntos Exteriores del PCC dio a conocer su Iniciativa para la Gobernanza Global de la IA. En el documento el gobierno chino advierte que la paz y el desarrollo global enfrentan varios desaf\u00edos, por lo que los pa\u00edses deben comprometerse a una visi\u00f3n com\u00fan, incluyente, cooperativa y sostenible sobre seguridad. Para eso los pa\u00edses deben construir consensos a trav\u00e9s del di\u00e1logo y la cooperaci\u00f3n para prevenir riesgos y desarrollar marcos de gobernanza (Ministry of Foreign Affairs RPC, 2023).<\/p>\n<p>Al mes siguiente tuvo lugar en Londres una reuni\u00f3n en la que participaron 29 pa\u00edses incluidos Estados Unidos y China y, de Am\u00e9rica del Sur, Brasil y Chile. Asistieron Kamala Harris, vicepresidente de Estados Unidos, Ursula von der Leyen, presidente de la Comisi\u00f3n Europea, pol\u00edticos y empresarios de grandes tecnol\u00f3gicas para discutir sobre el tema de la regulaci\u00f3n internacional de la IA, donde se expusieron las diferencias de criterio imperantes entre grandes jugadores mundiales. Estados Unidos apoy\u00f3 el criterio de aceptaci\u00f3n voluntaria de regulaciones por parte de las empresas y la UE el modelo propio m\u00e1s regulatorio ya en vigencia. Pero entre los concurrentes europeos hubo posiciones encontradas con el modelo comunitario y m\u00e1s cercanas al estadounidense, como la de Francia, e, inclusive, opiniones de expertos que sostuvieron que todav\u00eda es prematuro pensar una regulaci\u00f3n porque la tecnolog\u00eda est\u00e1 en plena evoluci\u00f3n, por lo que no se sabe que alcance y efectos puede tener en un futuro cercano.<a href=\"#_ftn6\" name=\"_ftnref6\"><sup>[6]<\/sup><\/a><\/p>\n<p>La reuni\u00f3n emiti\u00f3 la Declaraci\u00f3n Bletchley que incluye el prop\u00f3sito de trabajar conjuntamente para asegurar una IA centrada en la humanidad, confiable y responsable as\u00ed como apoyar los foros internacionales existentes y otras iniciativas para promover la cooperaci\u00f3n en relaci\u00f3n al amplio rango de riesgos planteados por esa tecnolog\u00eda (U.K. Government, 2023).<\/p>\n<p>En abril de 2024 la UE present\u00f3 el proyecto final de Ley de Inteligencia Artificial, que incluye prohibir riesgos inaceptables como sistemas de puntuaci\u00f3n social y IA manipuladora y obligaci\u00f3n de transparencia en los datos por parte de los desarrolladores, mientras las actividades consideradas de riesgo m\u00ednimo, como los videojuegos con IA, no est\u00e1n regulados. La mayor parte de las regulaciones recaen sobre los desarrolladores de sistemas considerados de alto riesgo. El proyecto fue acordado por los 27 miembros de la UE y aprobado por el Parlamento Europeo (EU, 2024)<\/p>\n<p>En mayo, la OCDE public\u00f3 sus Principios para IA, actualizando su edici\u00f3n de 2019,\u00a0 dirigidos a pa\u00edses grandes y chicos y a los due\u00f1os de las tecnol\u00f3gicas, que incluyen trabajar con las organizaciones internacionales para promover el intercambio de conocimientos en la materia, impulsar consensos sobre su uso y desarrollar indicadores comparables internacionalmente (OECD, 2023).<\/p>\n<p>Ese mismo mes, un grupo de acad\u00e9micos chinos dio a conocer, en forma de sugesti\u00f3n o recomendaci\u00f3n, un borrador para una ley sobre IA para la RPC, que dada su circulaci\u00f3n abierta podr\u00eda tener apoyo oficial. El documento incluye un cap\u00edtulo sobre Cooperaci\u00f3n Internacional y Gobernanza Internacional, en la cual, repitiendo conceptos del documento del Ministerio de Asuntos Exteriores de China de octubre de 2023 citado anteriormente, afirma que la RPC adhiere a una visi\u00f3n de seguridad global que es compartida, inclusiva, cooperativa y sustentable y adhiere al principio de dar igual peso al desarrollo y la seguridad, fortaleciendo intercambios para una mejor regulaci\u00f3n. (CSET, 2024).<\/p>\n<p>Finalmente, tambi\u00e9n en mayo de 2024, en G\u00e9nova, representantes de alto nivel de Estados Unidos y China sostuvieron el primer di\u00e1logo, a puertas cerradas, sobre IA, discutiendo los riesgos que \u00e9sta representa. En el mismo, EE.UU. resalt\u00f3 el peligro de mal uso de esa tecnolog\u00eda por parte de China, y este pa\u00eds protest\u00f3 por las restricciones que impone EE.UU. al acceso a la tecnolog\u00eda necesaria para desarrollar su IA.<a href=\"#_ftn7\" name=\"_ftnref7\"><sup>[7]<\/sup><\/a><\/p>\n<h2>El dilema de las regulaciones<\/h2>\n<p>Las recomendaciones de regulaci\u00f3n reci\u00e9n expuestas chocan contra una serie de realidades presentes en las negociaciones entre partes con intereses encontrados en el \u00e1mbito nacional e internacional.<\/p>\n<p>Este problema est\u00e1 esquematizado en el \u201cDilema del Prisionero\u201d de la Teor\u00eda de los Juegos, seg\u00fan el cual en una negociaci\u00f3n, las partes con intereses encontrados pueden obtener un resultado m\u00e1s beneficioso (o menos perjudicial) para ambos en la medida que cooperen en la b\u00fasqueda de un acuerdo, resignando parte de sus aspiraciones. Pero esas partes tienen, a su vez, fuertes incentivos para no cooperar y para buscar una optimizaci\u00f3n de beneficios en forma individual, lo cual los puede llevar a\u00a0 una situaci\u00f3n de mayor perjuicio mutuo que en el caso de aceptar un acuerdo.<\/p>\n<p>El dilema puede plantearse tambi\u00e9n en los t\u00e9rminos del esquema de Albert Hirschman (1972), de las opciones de \u201cvoz\u201d y \u201csalida\u201d. La primera es la de expresar la opini\u00f3n dentro de un sistema para intentar cambiarlo, lo cual puede asociarse a una voluntad de pertenencia a un sistema, negociando dentro del mismo. La segunda es la de salir del sistema con el que se est\u00e1 en desacuerdo y mantener la b\u00fasqueda del beneficio propio aisladamente.<\/p>\n<p>En las relaciones entre estados, la dificultad para coincidir en la cooperaci\u00f3n y regulaci\u00f3n surge de que la tecnolog\u00eda es fundamental para su competitividad, su seguridad y su \u00a0poder b\u00e9lico, todo lo cual desestimula la cooperaci\u00f3n para compartir informaci\u00f3n o en aceptar limitaciones a su capacidad de desarrollo tecnol\u00f3gico.<\/p>\n<p>Un aspecto de este problema es, adem\u00e1s, que ante la concreci\u00f3n de un acuerdo, las partes siempre enfrentan el peligro del \u201cfree rider\u201d, por el que uno de los miembros del acuerdo puede aprovechar las ventajas del mismo para seguir desarrollando solapadamente su tecnolog\u00eda.<\/p>\n<p>Las negociaciones sobre el cambio clim\u00e1tico expresan desde hace d\u00e9cadas este problema. Hace m\u00e1s de cincuenta a\u00f1os, en 1972, el Club de Roma public\u00f3 el informe \u201cLos L\u00edmites del Crecimiento\u201d, elaborado por cient\u00edficos del MIT de Estados Unidos, en el cual se advert\u00eda sobre el peligro de sobreexplotaci\u00f3n del planeta utilizando los modelos de crecimiento vigentes, basados en el consumo extensivo de recursos naturales. A partir de all\u00ed se extendi\u00f3 la discusi\u00f3n cient\u00edfica e internacional sobre el impacto de ese consumo sobre el medio ambiente y sus peligros, pero pa\u00edses en desarrollo, como China e India se opusieron durante mucho tiempo a cualquier compromiso para reducir las emisiones que causaba su crecimiento mientras que los ya desarrollados, con el gran contaminador Estados Unidos a la cabeza, tambi\u00e9n evitaron un compromiso ambiental. Reci\u00e9n en 2015, 194 pa\u00edses firmaron el Acuerdo de Par\u00eds, que establece una serie de medidas t\u00e9cnicas, financieras y de control para la reducci\u00f3n de gases de invernadero para reducir el ritmo de aumento de la temperatura. Pero en 2020 el gobierno de Donald Trump retir\u00f3 a Estados Unidos, uno de los principales emisores de gases, del Acuerdo. El gobierno de Joe Biden volvi\u00f3 a incorporarlo pero estos vaivenes dan cuenta de la fragilidad del Acuerdo.<\/p>\n<p>Por otra parte, el primer balance mundial de la Convenci\u00f3n Marco de las Naciones Unidas sobre el Cambio Clim\u00e1tico de 2023 asegura que los pa\u00edses no est\u00e1n cumpliendo las metas acordadas y que las emisiones globales no se est\u00e1n reduciendo con la rapidez necesaria para limitar el calentamiento a 1,5 \u00baC (U.N. 2023)<\/p>\n<p>Un eventual acuerdo sobre IA enfrenta, adem\u00e1s, el problema t\u00e9cnico de la verificaci\u00f3n de su cumplimiento, por la dificultad que existe para monitorear la actividad de los laboratorios privados o estatales, sea por la complejidad de la tecnolog\u00eda como por el inter\u00e9s de los estados y empresas de mantener sus secretos en temas que consideran sensibles o estrat\u00e9gicos. Un ejemplo de esto se produjo en la pandemia y post pandemia del Covid, cuando China dificult\u00f3 investigaciones de la Organizaci\u00f3n Mundial de la Salud sobre el origen de la pandemia, las cuales eran necesarias para evaluar el estado del problema en el resto del mundo, alegando que esas investigaciones ten\u00edan intenciones pol\u00edticas.<\/p>\n<p>Otro problema eminentemente t\u00e9cnico es que el desarrollo de los programas inform\u00e1ticos, incluidos los de IA puede experimentar un salto exponencial con el avance y difusi\u00f3n de la computaci\u00f3n cu\u00e1ntica, que va a multiplicar la capacidad de procesamiento del hardware. De este modo, el alcance futuro y los impactos de la IA, y por lo tanto las formas m\u00e1s eficientes de regulaci\u00f3n, son, en la actualidad, muy dif\u00edciles, sino imposible, de determinar.<\/p>\n<h2>\u00bfRegulando al capital?<\/h2>\n<p>En el \u00e1mbito nacional la encrucijada de los intereses sectoriales encontrados est\u00e1 planteada entre los objetivos de las empresas privadas, interesadas en desarrollar y vender sus tecnolog\u00edas libremente siguiendo su estrategia de maximizaci\u00f3n individual e inmediata, y el inter\u00e9s del estado en organizar ese desarrollo en funci\u00f3n de intereses generales y de m\u00e1s largo plazo.<\/p>\n<p>En el campo de la tecnolog\u00eda este problema se manifiesta en el inter\u00e9s de las empresas en vender su tecnolog\u00eda a China o en invertir en ese pa\u00eds. Ejemplos recientes son las crecientes inversiones de Intel Capital en startups chinas involucradas en el desarrollo de IA y otras tecnolog\u00edas avanzadas, o la decisi\u00f3n de Nvidia de vender a China chips avanzados para IA.<a href=\"#_ftn8\" name=\"_ftnref8\"><sup>[8]<\/sup><\/a><\/p>\n<p>Los estados intervienen en ese problema con regulaciones, prohibiciones o coerciones y su capacidad de acci\u00f3n depende, entre otras cosas, de su grado de autoritarismo.<\/p>\n<p>El estado chino tiene, por eso mismo, mayor capacidad para obligar a las empresas de su pa\u00eds a seguir estrategias oficiales vinculadas a objetivos de seguridad y, en sus declaraciones sobre desarrollo de IA, establece expl\u00edcitamente que las empresas deben orientarse en ese sentido.<a href=\"#_ftn9\" name=\"_ftnref9\"><sup>[9]<\/sup><\/a><\/p>\n<p>En los sistemas democr\u00e1ticos en los cuales, adem\u00e1s, las empresas tienen gran capacidad de influencia (legal o no) sobre las decisiones de los gobiernos y parlamentos, o donde los gobernantes est\u00e1n directamente alineados con los intereses privados, la influencia del estado es mucho menor.<\/p>\n<p>Pero a\u00fan en el caso de Estados Unidos, el estado tiene un alto grado de inter\u00e9s y capacidad de intervenci\u00f3n sobre el sector privado a trav\u00e9s de incentivos y presiones directas. Es as\u00ed que, en su libro de 2023, \u201cUnderground Empire\u201d, Farrell y Newman (2023) muestran la acci\u00f3n del gobierno de EE.UU. para influir sobre las decisiones de grandes tecnol\u00f3gica y para obtener de ellas informaciones necesarias para su pol\u00edtica de seguridad.<\/p>\n<h2>Concentraci\u00f3n, y desigualdades<\/h2>\n<p>La carrera tecnol\u00f3gica se aceler\u00f3 a partir de las sanciones tecnol\u00f3gicas de Estados Unidos lanzadas en 2018.<a href=\"#_ftn10\" name=\"_ftnref10\"><sup>[10]<\/sup><\/a><\/p>\n<p>El avance de estos pa\u00edses, en general y en IA refuerza, en una La competencia est\u00e1 encabezada por Estados Unidos y China, que tienen la mayor inversi\u00f3n en Investigaci\u00f3n y Desarrollo en relaci\u00f3n al PBI entre los pa\u00edses grandes (3% y 2,5%, respectivamente,\u00a0 seg\u00fan el Banco Mundial) y el mayor n\u00famero de solicitudes de patentes en la Organizaci\u00f3n Internacional de Propiedad Intelectual (WIPO, seg\u00fan su sigla en ingl\u00e9s). En Inteligencia Artificial, en particular, la mayor parte del poder est\u00e1 en manos de Estados Unidos y China: en un cuadro elaborado por el sitio MacroPolo, sobre la distribuci\u00f3n de los l\u00edderes tecnol\u00f3gicos trabajando en IA, Estados Unidos tiene el primer lugar con el 57%, seguido por China (12%), Gran Breta\u00f1a (8%), Alemania (4%) y Francia (4%). Y, en una lista de instituciones que trabajan en inteligencia artificial de las 10 primeras 8 son de Estados Unidos, 2 de China (3\u00aa y 6\u00aa posiciones) y una de Suiza, en la 10\u00b0 posici\u00f3n.<a href=\"#_ftn11\" name=\"_ftnref11\"><sup>[11]<\/sup><\/a><\/p>\n<p>Esta din\u00e1mica aumenta la ventaja tecnol\u00f3gica de las potencias en relaci\u00f3n al resto del mundo y, por lo tanto, su poder pol\u00edtico y militar absoluto y relativo, aumentando el nivel de vulnerabilidad econ\u00f3mica y pol\u00edtica de los pa\u00edses m\u00e1s rezagados.<\/p>\n<p>Por otra parte, en esos pa\u00edses tambi\u00e9n hay sectores con desarrollos de tecnolog\u00edas que pueden contribuir al bienestar general pero que, paralelamente, generan una ampliaci\u00f3n de las brechas productivas, geogr\u00e1ficas y sociales internas t\u00edpicas del atraso.<\/p>\n<p>Volviendo al citado libro de Ulrich Beck (2002, p.8) los riesgos globales no se distribuyen en forma igualitaria y, refiri\u00e9ndose al da\u00f1o ambiental, sentencia que \u201cla contaminaci\u00f3n sigue al pobre\u201d.<\/p>\n<p>De all\u00ed que los pa\u00edses menos desarrollados tengan un inter\u00e9s prioritario en establecer regulaciones nacionales e internacionales para la IA.<\/p>\n<h2>Bibliograf\u00eda<\/h2>\n<p>Beck, Ulrich (2002). La Sociedad del Riesgo Global. Siglo XXI. Madrid<\/p>\n<p>Bresnick, Sam (2024) Into the Minds of China\u2019s Military AI Expertsa . Foreign Policy 18\/07\/2024<strong>.<\/strong> <u><a href=\"https:\/\/foreignpolicy.com\/2024\/07\/18\/china-military-ai-artificial-intelligence\/?utm_source=Sailthru&amp;utm_medium=email&amp;utm_campaign=Editors%20Picks%2007182024&amp;utm_term=editors_picks\">https:\/\/foreignpolicy.com\/2024\/07\/18\/china-military-ai-artificial-intelligence\/?utm_source=Sailthru&amp;utm_medium=email&amp;utm_campaign=Editors%20Picks%2007182024&amp;utm_term=editors_picks<\/a><\/u><\/p>\n<p>EU (2024)Artificial Intelligence Act. Proyecto final (2024). <u><a href=\"https:\/\/artificialintelligenceact.eu\/es\/el-acto\/\">https:\/\/artificialintelligenceact.eu\/es\/el-acto\/<\/a><\/u><\/p>\n<p>CSET (2024). Georgetown University. Artificial Intelligence Law of the People\u2019s Republic of China (Draft for Suggestions from Scholars)02\/05\/2024.<\/p>\n<p><u><a href=\"https:\/\/cset.georgetown.edu\/publication\/china-ai-law-draft\/#:~:text=The%20draft%20law%20specifies%20various,the%20assistance%20of%20AI%20technology\">https:\/\/cset.georgetown.edu\/publication\/china-ai-law-draft\/#:~:text=The%20draft%20law%20specifies%20various,the%20assistance%20of%20AI%20technology<\/a><\/u>.<\/p>\n<p>Farrell, Henry y Newman, Abraham (2023) Underground Empire: How America Weaponized the World Economy. Holt &amp; Co. New York.<\/p>\n<p>G7 2023 (2023) Hiroshima Summit. <u><a href=\"https:\/\/www.mofa.go.jp\/files\/100573471.pdf\">https:\/\/www.mofa.go.jp\/files\/100573471.pdf<\/a><\/u>.<\/p>\n<p>ICAIL&#8217;87 (1987) Proceedings of the st international conference on Artificial Intelligence and law.\u00a0 <u><a href=\"https:\/\/dl.acm.org\/doi\/proceedings\/10.1145\/41735\">https:\/\/dl.acm.org\/doi\/proceedings\/10.1145\/41735<\/a><\/u><\/p>\n<p>Hirschman, Albert O (1972).\u00a0 Exit, Voice, and Loyalty. Responses to Decline in Firms, Organizations, and States. Harvard University Press, Massachussets.<\/p>\n<p>IISD. Security Council Debates (2023) AI\u2019s Impacts on Peace, Sustainable Development. 03\/08\/2023. https:\/\/sdg.iisd.org\/news\/security-council-debates-ais-impacts-on-peace-sustainable-development\/<\/p>\n<p>Johnson, James (2019) Artificial Intelligence &amp; Future Warfare: Implications for International Security. <u><a href=\"https:\/\/www.tandfonline.com\/journals\/cdan20\">Defense &amp; Security Analysis\u00a0<\/a><\/u>Volume 35, 2019 &#8211;\u00a0<u><a href=\"https:\/\/www.tandfonline.com\/toc\/cdan20\/35\/2\">Issue 2<\/a><\/u>. <u><a href=\"https:\/\/www.tandfonline.com\/doi\/full\/10.1080\/14751798.2019.1600800\">https:\/\/www.tandfonline.com\/doi\/full\/10.1080\/14751798.2019.1600800<\/a><\/u><\/p>\n<p>Meacham, Sam (2923) A Race to Extinction: How Great Power Competition Is Making Artificial Intelligence Existentially Dangerous Harvard International Review.08\/09\/2023. <u><a href=\"https:\/\/hir.harvard.edu\/a-race-to-extinction-how-great-power-competition-is-making-artificial-intelligence-existentially-dangerous\/\">https:\/\/hir.harvard.edu\/a-race-to-extinction-how-great-power-competition-is-making-artificial-intelligence-existentially-dangerous\/<\/a><\/u><\/p>\n<p>Ministry of Foreign Affairs of the RPC (2023). Global AI Governance Initiative. 20\/10\/2023 <u><a href=\"https:\/\/www.fmprc.gov.cn\/eng\/wjdt_665385\/2649_665393\/202310\/t20231020_11164834.html\">Global AI Governance Initiative (fmprc.gov.cn)<\/a><\/u><\/p>\n<p>OECD (2023).AI. Principles for Trustwothy A.I. <u><a href=\"https:\/\/oecd.ai\/en\/ai-principles\">AI Principles Overview &#8211; OECD.AI<\/a><\/u><\/p>\n<p>U.N. (2023) Technical dialogue of the first global stocktake. Synthesis report by the co-facilitators on the technical dialogue. 08\/09\/2023. https:\/\/unfccc.int\/documents\/631600<\/p>\n<p>U.N. (2023) High-Level Advisory Body for Artificial Intelligence. <u><a href=\"https:\/\/www.un.org\/techenvoy\/ai-advisory-body\">https:\/\/www.un.org\/techenvoy\/ai-advisory-body<\/a><\/u><\/p>\n<p>U.K. Governmment (2023). The Bletchley Declaration by Countries Attending the AI Safety Summit del 1 y 2 de noviembre de 2023. 01\/11\/2023. <u><a href=\"https:\/\/www.gov.uk\/government\/publications\/ai-safety-summit-2023-the-bletchley-declaration\/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023\">https:\/\/www.gov.uk\/government\/publications\/ai-safety-summit-2023-the-bletchley-declaration\/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023<\/a><\/u><\/p>\n<p>U.S. Department of State (2023). Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy. https:\/\/www.state.gov\/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy\/#:~:text=Launched%20in%20February%202023%20at,and%20use%20of%20military%20AI.<\/p>\n<p>White House (2023). Executive Orden on AI 23\/10\/2023 <u><a href=\"https:\/\/www.whitehouse.gov\/briefing-room\/presidential-actions\/2023\/10\/30\/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence\/\">https:\/\/www.whitehouse.gov\/briefing-room\/presidential-actions\/2023\/10\/30\/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence\/<\/a><\/u><\/p>\n<p><a href=\"#_ftnref1\" name=\"_ftn1\"><sup>[1]<\/sup><\/a> Doctor en Ciencias Sociales (UBA), economista. Profesor FCE-UBA, IRI-UNLP. Miembro del Grupo de Trabajo sobre China del CARI y del Departamento de Relaciones Econ\u00f3micas Internacionales del IRI. Autor del libro \u201cChoque de Gigantes. EE.UU. vs China y la Reglobalizaci\u00f3n\u201d Corregidor, 2023.<\/p>\n<p><a href=\"#_ftnref2\" name=\"_ftn2\"><sup>[2]<\/sup><\/a>Sam Meacham. A Race to Extinction: How Great Power Competition Is Making Artificial Intelligence Existentially Dangerous Harvard International Review.08\/09\/2023. https:\/\/hir.harvard.edu\/a-race-to-extinction-how-great-power-competition-is-making-artificial-intelligence-existentially-dangerous\/<\/p>\n<p><a href=\"#_ftnref3\" name=\"_ftn3\"><sup>[3]<\/sup><\/a> Rodina Gigova. \u00a0Who Vladimir Putin thinks will rule the world CNN World 02\/09\/2017. <u><a href=\"https:\/\/www.cnn.com\/2017\/09\/01\/world\/putin-artificial-intelligence-will-rule-world\/index.html\">https:\/\/www.cnn.com\/2017\/09\/01\/world\/putin-artificial-intelligence-will-rule-world\/index.html<\/a><\/u><\/p>\n<p><a href=\"#_ftnref4\" name=\"_ftn4\"><sup>[4]<\/sup><\/a> BBC News. La carta en la que m\u00e1s de 1.000 expertos piden frenar la inteligencia artificial por ser una \u00abamenaza para la humanidad\u00bb 29\/03\/2023.<u><a href=\"https:\/\/www.bbc.com\/mundo\/noticias-65117146\">https:\/\/www.bbc.com\/mundo\/noticias-65117146<\/a><\/u><\/p>\n<p><a href=\"#_ftnref5\" name=\"_ftn5\"><sup>[5]<\/sup><\/a> Government of The Netherlands. https:\/\/www.government.nl\/ministries\/ministry-of-foreign-affairs\/activiteiten\/reaim<\/p>\n<p><a href=\"#_ftnref6\" name=\"_ftn6\"><sup>[6]<\/sup><\/a> Varios autores. Inside the shadowy global battle to tame the world&#8217;s most dangerous technology Can anyone control AI?. Pol\u00edtico, 26\/03\/2024.\u00a0 https:\/\/www.politico.eu\/article\/ai-control-kamala-harris-nick-clegg-meta-big-tech-social-media\/<\/p>\n<p><a href=\"#_ftnref7\" name=\"_ftn7\"><sup>[7]<\/sup><\/a> AP News. In first AI dialogue, US cites \u2018misuse\u2019 of AI by China, Beijing protests Washington\u2019s restrictions. 15\/05\/2024. <u><a href=\"https:\/\/apnews.com\/article\/artificial-intelligence-china-united-states-biden-xi-geneva-506da7b5fa72d5fe1bcd54fb8ec4f898\">https:\/\/apnews.com\/article\/artificial-intelligence-china-united-states-biden-xi-geneva-506da7b5fa72d5fe1bcd54fb8ec4f898<\/a><\/u><\/p>\n<p><a href=\"#_ftnref8\" name=\"_ftn8\"><sup>[8]<\/sup><\/a> The Register. Intel&#8217;s China investments may have spurred fresh US restrictions. 116\/07\/2024. <u><a href=\"https:\/\/www.theregister.com\/2024\/07\/16\/intels_china_investments_may_have\/#:~:text=According%20to%20the%20Financial%20Times,into%20bringing%20in%20investment%20restrictions\">https:\/\/www.theregister.com\/2024\/07\/16\/intels_china_investments_may_have\/#:~:text=According%20to%20the%20Financial%20Times,into%20bringing%20in%20investment%20restrictions<\/a><\/u><\/p>\n<p>Xataka. Nvidia va a darle a China la soluci\u00f3n que necesita para competir en IA: chips Blackwell antirestricciones. 22\/07\/2024. <u><a href=\"https:\/\/www.xataka.com\/componentes\/nvidia-va-a-darle-a-china-solucion-que-necesita-para-competir-ia-chips-blackwell-antirestricciones\">https:\/\/www.xataka.com\/componentes\/nvidia-va-a-darle-a-china-solucion-que-necesita-para-competir-ia-chips-blackwell-antirestricciones<\/a><\/u><\/p>\n<p><a href=\"#_ftnref9\" name=\"_ftn9\"><sup>[9]<\/sup><\/a> CGTN.China names key \u00e1reas of military-civilian integration. <u><a href=\"https:\/\/news.cgtn.com\/news\/3d41444d7751444e\/share_p.html\">https:\/\/news.cgtn.com\/news\/3d41444d7751444e\/share_p.html<\/a><\/u><\/p>\n<p><a href=\"#_ftnref10\" name=\"_ftn10\"><sup>[10]<\/sup><\/a> Un antecedente anterior de esta carrera puede situarse, incluso, en lanzamiento del plan Made in China presentado por el gobierno chino en 2015 y que tiene por objeto avanzar en tecnolog\u00edas de la informaci\u00f3n, m\u00e1quinas computarizadas, robots y otros sectores.<\/p>\n<p><a href=\"#_ftnref11\" name=\"_ftn11\"><sup>[11]<\/sup><\/a> Fuente: MACRO POLO, del Paulson Institute <u><a href=\"https:\/\/macropolo.org\/\">https:\/\/macropolo.org\/<\/a><\/u>. Citado por Alejandro Razzotti en su presentaci\u00f3n \u201cDe ChatGPT 4 a la Explosi\u00f3n de la Inteligencia: Tensi\u00f3n Global y el Rol de China\u201d, en el Seminario del Grupo de Trabajo sobre China del CARI, 26\/06\/2024.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>por Julio Sevares<\/p>\n","protected":false},"author":5,"featured_media":36380,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_uag_custom_page_level_css":"","_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[1],"tags":[1324,1447],"uagb_featured_image_src":{"full":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT.png",750,200,false],"thumbnail":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT-150x150.png",150,150,true],"medium":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT-300x80.png",300,80,true],"medium_large":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT.png",750,200,false],"large":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT.png",750,200,false],"1536x1536":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT.png",750,200,false],"2048x2048":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT.png",750,200,false],"ocean-thumb-m":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT-600x200.png",600,200,true],"ocean-thumb-ml":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT.png",750,200,false],"ocean-thumb-l":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT.png",750,200,false],"sow-carousel-default":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT-272x182.png",272,182,true],"sow-blog-portfolio":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT-375x200.png",375,200,true],"sow-blog-grid":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT-720x200.png",720,200,true],"sow-blog-alternate":["https:\/\/www.iri.edu.ar\/wp-content\/uploads\/2024\/08\/anuario2024FEAT.png",750,200,false]},"uagb_author_info":{"display_name":"Juana Alvarez Eiras","author_link":"https:\/\/www.iri.edu.ar\/index.php\/author\/juana-alvarez-eiras\/"},"uagb_comment_info":0,"uagb_excerpt":"por Julio Sevares","_links":{"self":[{"href":"https:\/\/www.iri.edu.ar\/index.php\/wp-json\/wp\/v2\/posts\/37375"}],"collection":[{"href":"https:\/\/www.iri.edu.ar\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iri.edu.ar\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iri.edu.ar\/index.php\/wp-json\/wp\/v2\/users\/5"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iri.edu.ar\/index.php\/wp-json\/wp\/v2\/comments?post=37375"}],"version-history":[{"count":2,"href":"https:\/\/www.iri.edu.ar\/index.php\/wp-json\/wp\/v2\/posts\/37375\/revisions"}],"predecessor-version":[{"id":37379,"href":"https:\/\/www.iri.edu.ar\/index.php\/wp-json\/wp\/v2\/posts\/37375\/revisions\/37379"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iri.edu.ar\/index.php\/wp-json\/wp\/v2\/media\/36380"}],"wp:attachment":[{"href":"https:\/\/www.iri.edu.ar\/index.php\/wp-json\/wp\/v2\/media?parent=37375"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iri.edu.ar\/index.php\/wp-json\/wp\/v2\/categories?post=37375"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iri.edu.ar\/index.php\/wp-json\/wp\/v2\/tags?post=37375"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}