{"id":1632,"date":"2025-10-25T11:23:08","date_gmt":"2025-10-25T11:23:08","guid":{"rendered":"https:\/\/larevistainka.info\/?p=1632"},"modified":"2025-10-25T11:23:08","modified_gmt":"2025-10-25T11:23:08","slug":"cientificos-y-lideres-internacionales-reclaman-un-consenso-mundial-antes-de-avanzar-hacia-la-superinteligencia-artificial","status":"publish","type":"post","link":"https:\/\/larevistainka.info\/?p=1632","title":{"rendered":"Cient\u00edficos y l\u00edderes internacionales reclaman un consenso mundial antes de avanzar hacia la superinteligencia artificial"},"content":{"rendered":"<p> <br \/>\n<\/p>\n<div>\n<p>Expertos tecnol\u00f3gicos, l\u00edderes pol\u00edticos y cient\u00edficos de todo el mundo solicitaron en una carta abierta que se detenga el avance hacia la superinteligencia artificial hasta que exista un consenso para que se realice de \u201cforma segura y controlada\u201d.<\/p>\n<p>\u201cPedimos que se impulse la prohibici\u00f3n <strong>del desarrollo de la superinteligencia (referida a una IA con una capacidad superior a la humana en materia de razonamiento, creatividad y resoluci\u00f3n de problemas)<\/strong>, que no debe levantarse hasta que haya un amplio consenso cient\u00edfico de que se realizar\u00e1 de forma segura y controlada y una fuerte aceptaci\u00f3n p\u00fablica\u201d, se se\u00f1ala en la carta abierta que ya ha alcanzado m\u00e1s de 21.600 firmas y ha sido difundida este mi\u00e9rcoles en los principales medios del mundo.<\/p>\n<p>La propuesta, que es impulsada por el Future of Life Institute, se\u00f1ala que la IA puede generar herramientas \u201cinnovadoras\u201d que impulsen la salud y prosperidad \u201csin precedentes\u201d. <strong>No obstante, se advierte que muchas empresas tienen el objetivo declarado de desarrollar una superinteligencia en la pr\u00f3xima d\u00e9cada<\/strong> que \u201cpueda superar significativamente a todos los humanos en pr\u00e1cticamente todas las tareas cognitivas\u201d.<\/p>\n<div class=\"img-container mt-3\">\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" loading=\"lazy\" width=\"1200\" height=\"800\" src=\"https:\/\/www.tiempoar.com.ar\/wp-content\/uploads\/2023\/04\/inteligencia-artificial.jpg\" alt=\"Cient\u00edficos y l\u00edderes internacionales reclaman un consenso mundial antes de avanzar hacia la superinteligencia artificial\" class=\"wp-image-584467\" title=\"Cient\u00edficos y l\u00edderes internacionales reclaman un consenso mundial antes de avanzar hacia la superinteligencia artificial 1\"\/><\/figure>\n<\/div>\n<p>\u201cEsto ha suscitado preocupaciones, que abarcan desde la obsolescencia econ\u00f3mica y el desempoderamiento humano, la p\u00e9rdida de libertad, de libertades civiles, dignidad y control, hasta riesgos para la seguridad nacional e incluso la posible extinci\u00f3n humana\u201d, se a\u00f1ade en la misiva.<\/p>\n<p>El documento ha sido firmado hasta el momento por el premio Nobel de F\u00edsica de 2024, Geoffrey Hinton, y el primer cient\u00edfico m\u00e1s citado en el mundo, Yoshua Bengio. \u201cPara avanzar con seguridad hacia la superinteligencia, debemos determinar cient\u00edficamente c\u00f3mo dise\u00f1ar sistemas de IA que sean fundamentalmente incapaces de da\u00f1ar a las personas, ya sea por desalineaci\u00f3n o uso malicioso. Tambi\u00e9n debemos asegurarnos de que la ciudadan\u00eda tenga una participaci\u00f3n mucho m\u00e1s fuerte en las decisiones que definir\u00e1n nuestro futuro colectivo\u201d, consider\u00f3 Bengio.<\/p>\n<p>Asimismo, el historiador y escritor Yuval Noah Harari, quien tambi\u00e9n firm\u00f3 la misiva, sostuvo que <strong>la superinteligencia \u201cprobablemente desbaratar\u00eda el sistema operativo de la civilizaci\u00f3n humana y es completamente innecesaria\u201d<\/strong>.<\/p>\n<p>\u201cSi hoy, en cambio, nos centramos en desarrollar herramientas de IA controlables para ayudar a la gente, podremos aprovechar los incre\u00edbles beneficios de la IA de forma mucho m\u00e1s fiable y segura\u201d, reflexion\u00f3 el tambi\u00e9n profesor de la Universidad Hebrea de Jerusal\u00e9n.<\/p>\n<p>La carta tambi\u00e9n fue firmada por Stuart Russell, director del Center for Human-Compatible Artificial Intelligence; Steve Wozniak, cofundador de Apple; Richard Branson, fundador de Virgin Group; Steve Bannon, exestratega del presidente Donald Trump, y Susan Rice, exasesora de seguridad nacional de Estados Unidos, entre otros.<\/p>\n<p>\u201cEl desarrollo de una inteligencia artificial superhumana es probablemente la mayor amenaza para la existencia continua de la humanidad\u201d, indic\u00f3 el CEO de Open IA, Sam Altman, quien no firm\u00f3 la misiva, pero su frase es mencionada en el documento.<\/p>\n<p>Seg\u00fan una encuesta realizada por Future of Life Institute, publicada hace tres d\u00edas, <strong>el 5% de los adultos estadounidenses apoya el desarrollo r\u00e1pido y desregulado de la superinteligencia<\/strong>, mientras que el 64% considera que no se deber\u00eda impulsar el tema hasta que no se demuestre que es segura o controlable. Asimismo, en el estudio se se\u00f1ala que el 73% quiere una regulaci\u00f3n s\u00f3lida sobre la IA avanzada.<\/p>\n<p><em>Esta nota se public\u00f3 originalmente en el medio cooperativo\u00a0<a href=\"https:\/\/ladiaria.com.uy\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">La Diaria<\/a><\/em><\/p>\n<\/p><\/div>\n<p><script>\n!function(f,b,e,v,n,t,s)\n{if(f.fbq)return;n=f.fbq=function(){n.callMethod?\nn.callMethod.apply(n,arguments):n.queue.push(arguments)};\nif(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version='2.0';\nn.queue=[];t=b.createElement(e);t.async=!0;\nt.src=v;s=b.getElementsByTagName(e)[0];\ns.parentNode.insertBefore(t,s)}(window, document,'script',\n'https:\/\/connect.facebook.net\/en_US\/fbevents.js');\nfbq('init', '793616368409636');\nfbq('track', 'PageView');\n<\/script><br \/>\n<br \/><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Expertos tecnol\u00f3gicos, l\u00edderes pol\u00edticos y cient\u00edficos de todo el mundo solicitaron en una carta abierta que se detenga el avance hacia la superinteligencia artificial hasta que exista un consenso para&hellip; <\/p>\n","protected":false},"author":1,"featured_media":1633,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-1632","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-nacionales"],"_links":{"self":[{"href":"https:\/\/larevistainka.info\/index.php?rest_route=\/wp\/v2\/posts\/1632","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/larevistainka.info\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/larevistainka.info\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/larevistainka.info\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/larevistainka.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=1632"}],"version-history":[{"count":0,"href":"https:\/\/larevistainka.info\/index.php?rest_route=\/wp\/v2\/posts\/1632\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/larevistainka.info\/index.php?rest_route=\/wp\/v2\/media\/1633"}],"wp:attachment":[{"href":"https:\/\/larevistainka.info\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=1632"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/larevistainka.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=1632"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/larevistainka.info\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=1632"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}