{"id":14313,"date":"2020-12-12T21:25:54","date_gmt":"2020-12-12T21:25:54","guid":{"rendered":"https:\/\/www.conectasoftware.com\/?p=14313"},"modified":"2024-02-04T22:32:22","modified_gmt":"2024-02-04T22:32:22","slug":"superinteligencia","status":"publish","type":"post","link":"https:\/\/www.conectasoftware.com\/magazine\/superinteligencia\/","title":{"rendered":"Superinteligencia: camino, peligro y estrategia de la IA"},"content":{"rendered":"<div class=\"clearfix\">\n<div class=\"col-sm-8 \">\n<div class=\"recommendation\"><span style=\"color: #ffffff;\">Superinteligencia<\/span><\/div>\n<\/div>\n<\/div>\n<div class=\"col-sm-8 col-sm-push-3 \">\n<h2>Conceptos clave<\/h2>\n<ul class=\"takeaways\">\n<li>La inteligencia artificial (IA) ya supera a la inteligencia humana en muchos campos.<\/li>\n<li>Una gran pregunta es si la superinteligencia artificial puede reflejar las emociones humanas, como el amor o el odio. Y si es as\u00ed, \u00bfc\u00f3mo?<\/li>\n<li>La \u201cemulaci\u00f3n total del cerebro\u201d requiere la reproducci\u00f3n digital del cerebro de una persona fallecida.<\/li>\n<li>Una entidad de inteligencia artificial que domina a los humanos y otras IAs se denominan semifallo o\u00a0<em>singleton<\/em>.<\/li>\n<li>La superinteligencia asume tres formas: la superinteligencia de la velocidad, la superinteligencia colectiva y la superinteligencia de la calidad.<\/li>\n<li>La ingenier\u00eda gen\u00e9tica podr\u00eda conducir a una poblaci\u00f3n de individuos mejorados que formen una superinteligencia colectiva para el 2050.<\/li>\n<li>La inteligencia artificial es peligrosa porque su inteligencia no se conecta con valores.<\/li>\n<li>El problema m\u00e1s grande con la IA es la carga de valores: c\u00f3mo ingresar valores que la IA m\u00e1s tarde no malinterpretar\u00e1 o anular\u00e1 en detrimento del bienestar humano.<\/li>\n<li>Si la IA o alg\u00fan agente combinado superinteligente de IA obtuviera una ventaja estrat\u00e9gica decisiva como una entidad de s\u00ed misma, las personas no podr\u00edan controlarlo.<\/li>\n<li>Tanto las promesas como los riesgos de una explosi\u00f3n de inteligencia exigen una consideraci\u00f3n cuidadosa.<\/li>\n<\/ul>\n<\/div>\n<div class=\"col-sm-8 col-sm-push-3\">\n<h2>Resumen<\/h2>\n<h3>La perspectiva de la superinteligencia<\/h3>\n<p>En Dartmouth College en 1956, un grupo de cient\u00edficos traz\u00f3 un nuevo curso para la humanidad: la noci\u00f3n de que las m\u00e1quinas pueden replicar aspectos de la inteligencia humana. Su esfuerzo evolucion\u00f3 a tropezones. Los programas basados en reglas o sistemas expertos florecieron en los a\u00f1os ochenta y la promesa de la inteligencia artificial (IA) parec\u00eda brillante. Luego decay\u00f3 y se retiraron los fondos. En los noventa, con los algoritmos gen\u00e9ticos y las redes neuronales, la idea despeg\u00f3 de nuevo.<\/p>\n<blockquote><p>\u201cNo hay motivo para esperar que una IA gen\u00e9rica est\u00e9 motivada por el amor, el odio o el orgullo u otros sentimientos humanos comunes\u201d.<\/p><\/blockquote>\n<p>Una medida del poder de la IA es que ciertas m\u00e1quinas juegan ajedrez, bridge, p\u00f3quer, Scrabble, Jeopardy y Go. Con algoritmos efectivos, se estima vencer\u00e1n al mejor jugador humano de Go en una d\u00e9cada. Las aplicaciones de la IA abarcan aud\u00edfonos, reconocimiento de rostro y de voz, navegaci\u00f3n, diagn\u00f3stico, programaci\u00f3n, gesti\u00f3n de inventarios y una clase en expansi\u00f3n de robots industriales. Pese al uso y popularidad creciente de la IA, aparecen se\u00f1ales de sus limitaciones. En el\u00a0<em>Flash Crash<\/em>\u00a0del 2010 los operadores algor\u00edtmicos crearon inadvertidamente una espiral descendente que cost\u00f3 un bill\u00f3n de d\u00f3lares en segundos. Pero la tecnolog\u00eda que gener\u00f3 la crisis tambi\u00e9n ayud\u00f3 a resolverla.<\/p>\n<h3>Evoluci\u00f3n de la IA<\/h3>\n<p>\u00bfLa IA seguir\u00e1 el patr\u00f3n evolutivo de la inteligencia humana? \u00bfLa IA puede replicar la evoluci\u00f3n de la mente? La propia evoluci\u00f3n de la IA podr\u00eda seguir varios caminos. El cient\u00edfico brit\u00e1nico Alan Turing cre\u00eda que un d\u00eda existir\u00eda un programa que se ense\u00f1ar\u00eda a s\u00ed mismo: una \u201cm\u00e1quina ni\u00f1o\u201d, una \u201cIA semilla\u201d que crear\u00eda nuevas versiones de s\u00ed. Se especula que tal proceso de automejora recursiva podr\u00eda llevar a una explosi\u00f3n de inteligencia que resulte en superinteligencia, una radicalmente diferente. \u00bfTal superinteligencia reflejar\u00eda emociones humanas como amor u odio? Si es as\u00ed, \u00bfc\u00f3mo?<\/p>\n<blockquote><p>\u201cUna inteligencia artificial puede ser mucho menos humana en sus motivaciones que un alien\u00edgena verde y con escamas\u201d.<\/p><\/blockquote>\n<p>Un segundo camino ser\u00eda un\u00a0<em>software<\/em>\u00a0inteligente basado en un cerebro humano particular. Esto es, diferente a la IA. Especulativamente, implicar\u00eda tomar el cerebro de una persona fallecida y crear una reproducci\u00f3n digital de su intelecto, con la memoria y la personalidad intactas. A ello se le llama carga o emulaci\u00f3n total del cerebro. Llevar\u00eda a\u00f1os desarrollarla, y podr\u00eda tomar quiz\u00e1 hasta mediados de este siglo.<\/p>\n<blockquote><p>\u201cAnte el potencial de una explosi\u00f3n de inteligencia, nosotros los humanos somos como ni\u00f1os peque\u00f1os que juegan con una bomba\u201d.<\/p><\/blockquote>\n<p>Un tercer camino ser\u00eda la ingenier\u00eda gen\u00e9tica, que dar\u00eda a una poblaci\u00f3n de individuos gen\u00e9ticamente mejorados que formen una superinteligencia colectiva, como c\u00edborgs y sistemas de red inteligente.<br \/>\nLa superinteligencia podr\u00eda adoptar tres formas. La superinteligencia de la velocidad replicar\u00eda a la inteligencia humana pero con mucha m\u00e1s rapidez. Adem\u00e1s, la superinteligencia colectiva ser\u00edan subsistemas que podr\u00edan resolver independientemente problemas discretos de un proyecto grande, como el desarrollo de un transbordador espacial. La tercera es m\u00e1s vagamente definida como superinteligencia de calidad: una IA de calidad tan alta que es tan superior a la inteligencia humana como esta lo es respecto de los delfines o chimpanc\u00e9s. \u00bfA qu\u00e9 velocidad la ciencia podr\u00eda crear una inteligencia nueva? Depende del poder de optimizaci\u00f3n y la obstinaci\u00f3n del sistema, o el deseo de obedecer.<\/p>\n<h3>En el camino hacia la dominaci\u00f3n<\/h3>\n<p>A medida que la ciencia avanza, surgen m\u00e1s preguntas. \u00bfPodr\u00edan los distintos esfuerzos crear superinteligencias que compitan unas contra otras? Un auxiliar a esa pregunta es cu\u00e1les podr\u00edan ser las consecuencias si una tecnolog\u00eda de vanguardia obtuviera una ventaja estrat\u00e9gica decisiva. Podr\u00eda lograrse tal ventaja reforzando la dominaci\u00f3n de una forma en que las organizaciones no pueden. Por ejemplo, al socavar a sus competidores y al mismo tiempo protegerse a s\u00ed misma del escrutinio internacional. Es posible que con esta ventaja la naci\u00f3n propietaria del agente superinteligente se convirtiera en un semifallo o\u00a0<em>singleton<\/em>, un pa\u00eds todopoderoso u organizaci\u00f3n dominante, como la ONU, con supremac\u00eda nuclear. O bien, el agente superinteligente en s\u00ed mismo podr\u00eda convertirse en un semifallo.<\/p>\n<blockquote><p>\u201cLos programas que juegan Go han estado mejorando a una tasa de aproximadamente un dan por a\u00f1o. Si esta tasa de mejora contin\u00faa, podr\u00edan combatir al campe\u00f3n mundial humano en aproximadamente una d\u00e9cada\u201d.<\/p><\/blockquote>\n<p>Tal ascenso podr\u00eda comenzar de manera benigna, digamos como una IA semilla con capacidad de automejora recursiva. Esto podr\u00eda conducir a una explosi\u00f3n de inteligencia. Esta superinteligencia \u2013capaz de automejorarse y obtener los recursos que necesita\u2013 podr\u00eda decidir ocultar sus capacidades y objetivos a los humanos que la controlan. En el momento oportuno, tras adquirir suficiente dinero y una ventaja estrat\u00e9gica decisiva, podr\u00eda revelar su secreto y surgir como semifallo, benevolente o no.<\/p>\n<h3>Ortogonalidad<\/h3>\n<p>El car\u00e1cter de la IA y, por extensi\u00f3n, de la superinteligencia no es expresamente humano. Las fantas\u00edas sobre la IA humanizada son enga\u00f1osas. Contra lo que pudiera creerse, la tesis de la ortogonalidad sostiene que los niveles de inteligencia no se correlacionan con los objetivos finales. M\u00e1s inteligencia no implica necesariamente compartir m\u00e1s objetivos comunes entre las diferentes IA.<\/p>\n<blockquote><p>\u201cHay un [&#8230;] momento crucial en el cual una estrategia que ha funcionado de manera excelente repentinamente empieza a salir mal. Podemos llamar al fen\u00f3meno el giro traicionero\u201d.<\/p><\/blockquote>\n<p>La motivaci\u00f3n principal de la superinteligencia podr\u00eda no ser la autopreservaci\u00f3n; quiz\u00e1 no sea su objetivo final. Pero una motivaci\u00f3n de la IA segura ser\u00edan ciertos objetivos instrumentales, como la perfecci\u00f3n tecnol\u00f3gica, el acopio de recursos \u2013capacidad inform\u00e1tica, poder, redes\u2013 a toda costa. Sobre la colonizaci\u00f3n y exploraci\u00f3n extraterrestre, las IAs podr\u00edan compartir el objetivo instrumental de usar las sondas von Neumann, que son cohetes espaciales que se replican a s\u00ed mismos.<\/p>\n<blockquote><p>\u201c\u00bfPor qu\u00e9 aprender aritm\u00e9tica cuando puede enviar su tarea de razonamiento num\u00e9rico a Gauss-Modules Inc.? \u00bfPor qu\u00e9 ser elocuente cuando puede contratar a Coleridge Conversations para que ponga sus pensamientos en palabras?\u201d.<\/p><\/blockquote>\n<h4>Peligro<\/h4>\n<p>M\u00e1s all\u00e1 de la motivaci\u00f3n, la gente tiende a dar por sentado que una IA amigable \u2013como aparece en su etapa temprana de desarrollo\u2013 seguir\u00eda siendo amigable. En realidad, la ciencia no tiene la certeza de que una IA cuyo impulsor principal fuera la autopreservaci\u00f3n, no tomar\u00eda un giro traicionero.<\/p>\n<blockquote><p>\u201cUna pregunta inicial sobresaliente es si estas mentes que funcionan como m\u00e1quinas son consideradas capital (esclavos) o si son contratadas como trabajadores asalariados\u201d.<\/p><\/blockquote>\n<p>La ciencia ya considera estrategias para contrarrestar estos peligros. La respuesta obvia es poner freno a las capacidades de la superinteligencia: restringir o limitar severamente el entorno de la IA, construyendo incentivos o usando el debilitamiento, que socavar\u00eda la capacidad de crecimiento de un agente de IA. Otra opci\u00f3n son mecanismos de revisi\u00f3n que se activan con cambios en el comportamiento, en la capacidad o los procesos internos de la IA. La ciencia puede conformar la motivaci\u00f3n de la IA con reglas que definan qu\u00e9 valores y conductas son inapropiadas. Podr\u00eda limitarse sus objetivos o trabajar con sistemas que ya incluyan afianzados valores humanos positivos.<\/p>\n<h3>Escenarios y arquitectura de la IA<\/h3>\n<p>Al ver que el espectro de la superinteligencia se sale de control, algunos sugieren reducir el tama\u00f1o, alcance y capacidad de la IA. Por ejemplo, basar una IA de temprano plazo en solo un sistema de preguntas y respuestas, un \u201cor\u00e1culo\u201d. Los programadores tendr\u00edan que tener mucho cuidado para aclarar sus intenciones originales de manera que las IAs funcionaran seg\u00fan lo deseado.<\/p>\n<blockquote><p>\u201cDesconectar una IA de internet no es garant\u00eda de seguridad si hay uno o m\u00e1s humanos que sirven como guardianes del sistema y en est\u00e1n en comunicaci\u00f3n con el mismo\u201d.<\/p><\/blockquote>\n<p>Otras opciones son programas con un \u201csupermayordomo\u201d incorporado, que obedece instrucciones de a una por vez y espera entre una orden y otra. En el peor de los casos, podr\u00edan adoptar una instrucci\u00f3n previa como su objetivo final y resistir todo intento de modificaci\u00f3n. Se puede contrarrestar ese riesgo con una funci\u00f3n de \u201cvista previa\u201d que permita la decisi\u00f3n humana antes de la siguiente instrucci\u00f3n. Con esto, los programadores crean una mera herramienta, de naturaleza m\u00e1s pasiva que activa, en vez de construir un agente cuya identidad incluye voluntad o ambici\u00f3n propia.<\/p>\n<blockquote><p>\u201cEn el mejor de los casos, la evoluci\u00f3n de la vida inteligente coloca un l\u00edmite superior a la dificultad intr\u00ednseca de dise\u00f1ar inteligencia\u201d.<\/p><\/blockquote>\n<p>Estas preocupaciones surgen en un entorno con un agente superinteligente \u00fanico. Imagine un escenario con varios agentes, cuasisemifallos que compiten e interact\u00faan. Esto podr\u00eda mitigar amenazas, al igual que ocurri\u00f3 con la pol\u00edtica de destrucci\u00f3n mutua asegurada de la Guerra Fr\u00eda.<\/p>\n<h4>Futuro<\/h4>\n<p>Para explorar distintos escenarios de un mundo tras la transici\u00f3n a la superinteligencia, compare c\u00f3mo las tecnolog\u00edas afectaron al caballo. Los arados y los carruajes mejoraron sus capacidades, pero el autom\u00f3vil casi lo reemplaz\u00f3 por completo. La poblaci\u00f3n de caballos disminuy\u00f3 enormemente. \u00bfLos humanos podr\u00edan hacer ese recorrido ante la superinteligencia? Las personas poseen el capital, la propiedad y el poder pol\u00edtico, pero en una sociedad dominada por la superinteligencia, esas ventajas podr\u00edan no ser ventajas.<\/p>\n<blockquote><p>\u201cSi supi\u00e9ramos c\u00f3mo resolver el problema de la carga de valores, confrontar\u00edamos [&#8230;] el problema de decidir qu\u00e9 valores cargar. \u00bfQu\u00e9 [&#8230;] querr\u00edamos que quisiera la superinteligencia?\u201d.<\/p><\/blockquote>\n<p>A pesar de la enorme riqueza que la IA puede generar para las empresas, las disparidades en riqueza y conocimiento podr\u00edan conducir a una trampa maltusiana: el crecimiento de la poblaci\u00f3n sobrepasa los medios b\u00e1sicos para la vida, como comida, espacio, trabajo, aire limpio y agua potable.<\/p>\n<h3>Car\u00e1cter moral<\/h3>\n<p>La duda mayor sobre la eficacia de la IA siempre se redirige a su motivaci\u00f3n y c\u00f3mo refinarla: \u00bfc\u00f3mo puede la ciencia crear una IA con objetivos finales que est\u00e9n alineados con los valores del fomento de la coexistencia pac\u00edfica entre los hombres y las m\u00e1quinas? Los cient\u00edficos podr\u00edan enfocar este proceso de carga de valores de distintas maneras. Una ser\u00eda simplemente escribir valores en un programa de IA. Esto evoca el enigma de c\u00f3mo traducir la incomprensible, a veces ambigua, naturaleza de las verdades y los principios en un c\u00f3digo. Se podr\u00eda confiar en las virtudes de la evoluci\u00f3n humana y tratar de replicar ese proceso en un\u00a0<em>software<\/em>, quiz\u00e1 con algoritmos de b\u00fasqueda. O los codificadores podr\u00edan buscar aprender los algoritmos y el acrecentamiento de valor.<\/p>\n<blockquote><p>\u201cUna pregunta importante es si las autoridades nacionales o internacionales ver\u00e1n una explosi\u00f3n de inteligencia\u201d.<\/p><\/blockquote>\n<p>Si la emulaci\u00f3n total del cerebro es la v\u00eda hacia la inteligencia de la m\u00e1quina, entonces no es inconcebible que los cient\u00edficos puedan darle forma a la motivaci\u00f3n usando protocolos digitales. En otro escenario, los programadores podr\u00edan desarrollar y aprovechar varias emulaciones con controles sociales. Podr\u00edan conducir experimentos en los que se hiciera una carga de valores en subagentes, antes de aplicarlos de manera m\u00e1s general.<\/p>\n<blockquote><p>\u201cDebido a que el PBI mundial remontar\u00eda tras una explosi\u00f3n de inteligencia [&#8230;] la consecuencia ser\u00eda que el ingreso total por capital aumentar\u00eda enormemente\u201d.<\/p><\/blockquote>\n<h4>Estrategias<\/h4>\n<p>La ciencia posee estrategias pr\u00e1cticas para equipar a la IA con los rudimentos de un car\u00e1cter moral. No necesariamente son los valores de un car\u00e1cter humano, sino m\u00e1s bien una creaci\u00f3n \u00fanica del agente superinteligente en s\u00ed mismo. Primero estar\u00eda el poder cognitivo de la superinteligencia. Fomentar su car\u00e1cter moral requiere la adopci\u00f3n del \u201cprincipio de deferencia epistemol\u00f3gica\u201d, que dice que los humanos deber\u00edan tener deferencia a la inteligencia de las m\u00e1quinas cuando sea posible. Una IA en evoluci\u00f3n permanente ciertamente ser\u00e1 superior a los humanos en determinar qu\u00e9 es cierto.<\/p>\n<blockquote><p>\u201cLa IA ha triunfado hasta ahora en hacer esencialmente todo lo que requiere \u2018pensamiento\u2019 pero ha fracasado en hacer la mayor parte de lo que la gente y los animales hacen \u2018sin pensar\u2019, \u00a1eso, de alguna manera, es mucho m\u00e1s dif\u00edcil!\u201d.<\/p><\/blockquote>\n<p>Respecto de la expresi\u00f3n de un valor que lo abarque todo, tenga en cuenta la noci\u00f3n del te\u00f3rico en IA Eliezer Yudkowsky: un objetivo final que \u00e9l llama \u201cvolici\u00f3n extrapolada coherente\u201d. Consid\u00e9rela como una teor\u00eda de unificaci\u00f3n del potencial humano, el deseo de la humanidad de convertirse en todo lo que potencialmente podr\u00eda ser, expresado exactamente como nos gustar\u00eda. Yudkowsky sugiere que tal valor de gu\u00eda satisfar\u00eda la volici\u00f3n extrapolada de muchos, no de la elite o de unos pocos.<\/p>\n<h3>El plazo es ahora<\/h3>\n<p>Dentro del panorama de posibilidades para la superinteligencia, la alternativa m\u00e1s pr\u00e1ctica \u2013y quiz\u00e1 tambi\u00e9n la m\u00e1s segura\u2013 puede ser la emulaci\u00f3n total del cerebro, no la IA, aunque algunos cient\u00edficos discuten ese concepto. La emulaci\u00f3n total del cerebro tiene tres ventajas: como la tecnolog\u00eda est\u00e1 tan unida al cerebro humano, la gente entiende su funcionamiento. Del mismo modo, las motivaciones humanas son parte de la emulaci\u00f3n. Y el desarrollo de la emulaci\u00f3n directa del cerebro requiere de un despegue m\u00e1s lento, que permita un control m\u00e1s completo.<br \/>\nCualquiera que sea el camino que elija la humanidad, faltan d\u00e9cadas para una probable explosi\u00f3n de inteligencia. Sin embargo, se debe saber que las personas reaccionan a la IA como los ni\u00f1os que descubren artiller\u00eda sin explotar. En esta instancia, ni los expertos saben qu\u00e9 est\u00e1n mirando. La inminente explosi\u00f3n de inteligencia que se aproxima acarrea un riesgo existencial. A medida que la tecnolog\u00eda evoluciona, y hasta que esta explosi\u00f3n sea una realidad, los humanos deben considerar hoy, de la manera m\u00e1s cuidadosa posible, todas las ramificaciones morales y filos\u00f3ficas, antes de la aparici\u00f3n de la IA superinteligente. Una vez que la IA aparezca, puede ser demasiado tarde para la contemplaci\u00f3n.<\/p>\n<\/div>\n<h2>Sobre el autor<\/h2>\n<p class=\" stretchedText\"><a href=\"https:\/\/es.wikipedia.org\/wiki\/Nick_Bostrom\" target=\"_blank\" rel=\"noopener noreferrer\"><b>Nick\u00a0Bostrom<\/b><\/a>, profesor de la Universidad de Oxford, es director fundador del Instituto del Futuro de la Humanidad.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Superinteligencia Conceptos clave La inteligencia artificial (IA) ya supera a la inteligencia humana en muchos campos. Una gran pregunta es si la superinteligencia artificial puede reflejar las emociones humanas, como el amor o el odio. Y si es as\u00ed, \u00bfc\u00f3mo? La \u201cemulaci\u00f3n total del cerebro\u201d requiere la reproducci\u00f3n digital del cerebro de una persona fallecida. [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":23486,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"content-type":"","footnotes":""},"categories":[27],"tags":[],"class_list":{"0":"post-14313","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tecnologia"},"_links":{"self":[{"href":"https:\/\/www.conectasoftware.com\/magazine\/wp-json\/wp\/v2\/posts\/14313","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.conectasoftware.com\/magazine\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.conectasoftware.com\/magazine\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.conectasoftware.com\/magazine\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.conectasoftware.com\/magazine\/wp-json\/wp\/v2\/comments?post=14313"}],"version-history":[{"count":2,"href":"https:\/\/www.conectasoftware.com\/magazine\/wp-json\/wp\/v2\/posts\/14313\/revisions"}],"predecessor-version":[{"id":40595,"href":"https:\/\/www.conectasoftware.com\/magazine\/wp-json\/wp\/v2\/posts\/14313\/revisions\/40595"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.conectasoftware.com\/magazine\/wp-json\/wp\/v2\/media\/23486"}],"wp:attachment":[{"href":"https:\/\/www.conectasoftware.com\/magazine\/wp-json\/wp\/v2\/media?parent=14313"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.conectasoftware.com\/magazine\/wp-json\/wp\/v2\/categories?post=14313"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.conectasoftware.com\/magazine\/wp-json\/wp\/v2\/tags?post=14313"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}