El futuro de la IA y las inteligencias fuertes

Bienvenid@, hoy te propongo revisar dónde nos encontramos antes de embarcarnos en un viaje al futuro, créeme, va a ser breve, pero intenso, así que,...."vente, que estaremos de regreso antes de lo que piensas")


Eso si, por favor, si no has leído el post anterior, te recomiendo que lo hagas, no te llevará más de 10 minutos y te pondrá en antecedentes...

¿Ya? Fenomenal, empecemos pues
 

El futuro depende de todos nosotros



Fuente: https://www.actionsdata.com/blog/futuro-internet


A estas alturas ha quedado claro que esta ciencia no lo ha tenido nada fácil, y que su evolución, hasta la fecha, no ha sido un camino de rosas. Pero bueno, es comprensible que haya sido y que siga siendo así, ya que es un área de conocimiento muy disruptiva y que genera proyectos que (como pasa con casi todo) dependiendo de cómo se usen, pueden ser constructivos o destructivos. Además, habiendo inversiones tan voluminosas y previsiones tan alentadoras, hay tantos, pero tantísimos intereses entremezclados que, la controversia es más que esperable.

Ni que decir tiene (y remito al lector a este post) que los riesgos éticos están servidos también.

Pero vayamos algo más despacio. Partamos del presente para intuir, o al menos imaginar, un futuro lo más realista posible.

Actualmente se utilizan sistemas de recomendación basados en IA, nuestros teléfonos saben cuál es la siguiente palabra que vamos as escribir en ese wathsapp, nos reconocen a través de la cámara y se desbloquean y, mientras nuestra ciencia preferida va ganando cada vez más terreno en sectores como la banca y la medicina, ya se escucha hablar del "derecho 4.0" como una realidad.

Fuente: ambitojuridico.com


Un ejemplo excelente, creo, de avances en medicina son los implantes robóticos, que incluso son capaces de realizar acciones "leyendo" impulsos cerebrales. Otro, que nos asusta a todos, sin duda es el desarrollo (en China) de úteros sintéticos que gestan embriones mediante una IA (noticia aquí)

Fuente: iproup.com

Fuente: xataka.com


Otros ejemplos son el consumo predictivo (anticiparse a la demanda del cliente y tener preparada la mayor parte de su próximo pedido) o el sueño más húmedo del Sr. Musk, la implantación de chips en el ser humano, práctica sobre la que ya ha anunciado ensayos (noticia aquí).

Fuente: abc.es

Este panorama nos conduce a pensar que, en un futuro muy próximo, la IA va a formar parte de nuestras vidas hasta un extremo que muchas personas no alcanzan a imaginar.

En contraposición a este futuro, en que la inteligencia artificial nos acompaña minuto a minuto, puede dibujarse un paisaje devastador, en el que repetidos y abundantes errores de datos (intencionados o no) permiten modelos con sesgo, de carácter discriminatorio que, junto a modelos bien desarrollados utilizados para el mal (persecución de inocentes, terrorismo selectivo, eliminación de personas improductivas y otros riesgos supremacistas) y sistemas de investigación y manipulación de masas, convierten en futuro de nuestra sociedad en algo muy poco alentador.

Evidentemente toda ciencia disrruptiva, toda herramienta poderosa, es un arma de doble filo (y si, todos los ejemplos que te mencionado son factibles, de hecho algunos ya existen), lo que nos obliga a ser muy cuidadosos y muy selectivos en las aplicaciones de la inteligencia artificial, especialmente en sectores como el militar.

Los gobiernos y las administraciones internacionales ya están tomando cartas en el asunto, vía regulación, pero, al menos para quien escribe estar líneas, no son medidas que inspiren confianza, y voy a mojarme, voy a explicar los motivos que me llevan a desconfiar.

Habiendo conocido internet desde sus inicios, hacia finales de los 80 o principios de los 90 (época en la que no había buscadores, cuando surgió el primer navegador para sistemas unix, que no funcionaba en entornos gráficos, sino en "modo terminal", habiendo visto surgir en entornos de investigación el primer navegador web (NCSA Mosaic) y habiendo conocido en el pasado, muy, pero que muy de cerca el mundo del hacking y de la piratería informática, .... Recuerdo con precisión milimétrica cómo en un principio no había regulación en la web, por lo que existía acceso libre a todo tipo de información (datos científicos, notas sobre terrorismo urbano, documentación legal, diseños de circuitos para phreaking -black box and family-, sexo explícito de todo tipo, software pirata..... todo lo que un@ se imagine junto, en una especie de caos perfectamente ordenado) y entonces empezó a regularse todo de forma oficial, "por el bien común", y algunas fuentes de información desaparecieron. Claro, eso está muy bien si uno se cree, de verdad, que "lo malo" ha desaparecido, pero la realidad es que nada desapareció, solo cambió de sitio, apareciendo los "FTP Sitez" (Los "FTP sites" ya existían, FTP es un protocolo de transferencia de ficheros antiquísimo, pero en aquella ocasión se empezaron a usar para disimular lo que algunos querían aniquilar, complaciendo con este camuflaje al poder). Los "sitez" solo algunos (unos muchos, si se me permite la expresión) los conocíamos, así como las "FTP lists".

Luego, mucho tiempo después, apareció la llamada "Deep web", una creación, más conocida, en la que se compra y se vende todo, donde el bien y el mal conviven como compañeros de piso, como viejos conocidos del pasado.... (me parece a mí que para algunos es un "dejà vu").

Fuente: derechodelared.com



Bien, pues si a toda esta experiencia, que me hace intuir lo que pasará con la evolución de la IA si se regulan ciertas líneas de evolución de la misma, le sumamos esa (en ocasiones más que clara) tendencia a la gestión por interés que mueve a las grandes organizaciones (tanto públicas como privadas aunque políticas todas), permítame, querido lector, que desconfíe de las regulaciones.

En mi opinión, humilde sí, pero mía al fin y al cabo, la formación (bien dirigida) así como la concienciación pueden tener un efecto mucho más positivo que una regulación de carácter impositivo que, probablemente, oculte intereses y filtros desconocidos para el "gran público".

Sí, le duela a quien le duela ... Estoy convencido que nada, absolutamente nada, va a evitar que surjan aplicaciones terribles de la IA (no olvidemos que la capacidad económica de muchas organizaciones terroristas les permite acceder a todo tipo de armas y tecnologías. A partir de ahí, imaginen ustedes lo que quieran o puedan, mis queridísimos amigos).

Y no es que pretenda ser "agorero", ni mucho menos demonizar la IA, sino trasladar el razonamiento que me lleva a pensar que, con la IA ocurre como con todo: "depende del uso que se haga de ella, se obtiene un resultado u otro".

¿Y si termina desarrollándose una AGI?

Vamor por partes, por favor,.... en primer lugar....

¿Una AGI? ¿Pero qué #%&@ es eso?


Fuente: observatorio-ia.com


Una Inteligencia Artificial General -IAG o AGI en inglés- es una IA fuerte, tal y como la describía al principio del post anterior. Es decir, una IA que es capaz de aprender por sí misma, o, en otras palabras, una inteligencia artificial que, en lugar de haber sido entrenada para resolver un problema específico, habría sido entrenada para tener capacidad de exploración y una capacidad impresionante de detección y resolución de problemas. Veamos esto a qué nos llevaría...

  1. Exploración: Identificar en su entorno "casos", o lo que es lo mismo, datos que describen situaciones. Pero cuidado con la definición, que tiene mucha "miga"... 
    1. Para identificar en su entorno algo, primero tiene que existir su entorno, es decir, la IA en cuestión tiene que "existir" en un sitio (físico o digital) en el que ella esté ubicada y 
    2. En ese entorno tiene que haber elementos de información "detectables" por esta IA, lo que implica que la IA, además, necesita algún medio para interactuar con el entorno (redes, IoT, cámaras + visión artificial,....) lo que sea, pero necesita algo que le proporcione esa "información exterior" para que ella pueda detectar casos.
  2. Detección de problemas: Claro, .... una cosa es tener datos a la vista y otra comprender lo que significan, detectar situaciones a partir de esos datos, en las que "conviene" hacer algo. Por ejemplo, y para que ustedes me entiendan... si a mi me ponen delante un informe de cómo han evolucionado los índices más importantes de la Bolsa de Madrid, me quedo igual que estaba, solo que con (más)cara de tonto. Esto significa que, de temas bursátiles, oiga, a mi mejor no me pregunte. Pero más allá de mi capacidad de análisis de información económica (algo más se de cocina) este pequeño ejemplo viene a explicar que la la IA fuerte cuyas hipotéticas capacidades tratamos de desgranar, además de disponer de acceso para observar su entorno y detectar información, tiene que ser capaz de identificar patrones (ciertas relaciones entre los datos) en ella y, a partir de estos patrones, comprender que "con eso se puede hacer algo que genera un valor añadido". Porque,... si de otro modo, la IA, tratase de explorar toda la información a la que tiene acceso, buscando soluciones donde ni tan siquera hay un problema,.... muy inteligente no aparentaría ser. Observándolo desde otro punto de vista, ser capaz de detectar un problema es muy, pero que muy parecido a ser capaz de, tras un análisis breve, descartar aquellos casos donde no parece haber un problema. "Et voilà",... esto tiene más que ver con lo que normalmente haría una AGI,.... explorarlo todo si, pero de forma rápida para ver si puede generar algo valioso o no, es decir, como un buen detective que explora el escenario de un crimen en busca de pruebas, una AGI trataría de que no se le pase nada por alto.
  3. Resolución de problemas: De acuerdo, nuestra amiga ya ha revisado su entorno, ha encontrado un conjunto de información y, tras analizarlo rápidamente, ha determinado ciertos patrones en la data que, una vez estudiados de forma detenida, le sugieren que podría ser interesante procesarlos en profundidad para generar un valor añadido (hasta ahora, "tela marinera",...). Pero, ¿cómo va a procesarlos en profundidad? Bien, dependiendo del origen de los datos el análisis, probablemente, haya sido de un tipo u otro (si vemos algo, lo procesamos de forma diferente a si escuchamos algo, por ejemplo), y este primer análisis sugerirá un conjunto limitado de formas de procesamiento detallado. Pero... ¿qué objetivo busca nuestra IA? Claro,... el objetivo debe identificarse en la detección del problema, cuando nuestro "detective" va "tirando del hilo" para decidir si continuar o no, al detectar el interés, detecta un interés por algo. Y créanme, no se trata de descubrir la piedra filosofal, no, se trata, simplemente de ir un poco más allá con la información, de generar algo más de información que incremente el valor de la misma (que repitiendo eso muchísimas veces, se avanza bastante...). Aquí, nuestro querido Claude Shannon (1916-2001) nos dejó otro prisma con el que observar el problema. Dentro de su teoría de la comunicación, define la entropia como "el desorden que se produce en el proceso de circulación de un mensaje desde su polo emisor a su polo receptor". Así pues, y siendo la entropía medible, nuestra IA mide la entropía en esos patrones que identifica en los datos, y detecta "mensajes" ordenados, que, por lo tanto, generen un dato adicional que, aparentemente es razonable (lógico, extraido de forma razonada y ordenada a partir de los datos ya existentes). Luego ya veremos si es útil o no,.... nuestra IA fuerte, que es muy diligente, se lo guarda por si acaso le sirviese un día...
Bueno, espero haber sido capaz de explicar lo que hace una AGI....obtiene información, la explora y, si le gusta su sabor, profundiza en ella, extrae datos y los almacena.

Eso si, almacenarlos no significa olvidarlos, de algún modo, es capaz de relacionar toda la información que ha ido detectando y descubriendo a lo largo de su vida (todo gracias la teoría de grafos y a los autómatas finitos, porque con ellos, y aplicando probabilidad condicional, claro -gracias a Bayes-, no solo relacionamos información, sino que nos permiten inferir resultados de, aún más, valor añadido).

¿Por dónde íbamos? Ah! si,.... nuestra IA fuerte es capaz de relacionar toda la información y guardar esas relaciones. Por lo que, terminamos de inferir una nueva capacidad que necesita la AGI, almacenar la información y relacionarla. ¿Y eso para qué? Bueno,.... es como cuando una persona relaciona hechos del pasado (reciente o no) con otros del presente.

Dicho de otro modo,.... nuestra AGI, de forma paralela a ese análisis exploratorio y a ese análisis en profundidad, ejecuta un proceso de inferencia de conclusiones a partir de toda la información que va generando.

Entre otros procesos activos dentro de nuestra AGI, estos parecen ser los más relevantes. Claro, que, con todo eso, la AGI debería ser capaz de tomar decisiones, lo que nos conduce, nuevamente, al asuntillo ese que tenemos pendiente

¿Podría una AGI tener conciencia y consciencia?

Se dice lo siguiente de la consciencia:

"La consciencia es el estado de conocimiento de uno mismo y del entorno por la cual el individuo realiza sus funciones perceptivas, intelectuales, afectivas y motoras. Desde el punto de vista neurológico la consciencia se manifiesta en su actuación mediante la actividad cerebral y se considera como un complejo de unidades de información que tiene su base material en el cerebro...."
Amadeo Muntané Sánchez en ésta página.

Esto implica que nuestra AGI, no solo debe "conocer" su entorno, algo que ya hemos "resuelto", sino que debe conocerse a sí misma y, entre otras, realizar funciones afectivas.

Hhhmmm, eso de que nuestra IA debería conocerse a sí misma, nos invita a analizar el tema de la conciencia,... 

la conciencia, según la RAE, tiene, o puede tener, diferentes definiciones:

1. f. Conocimiento del bien y del mal que permite a la persona enjuiciar moralmente la realidad y los actos, especialmente los propios.
2. f. Sentido moral o ético propios de una persona. Son gentes sin conciencia.
3. f. Conocimiento espontáneo y más o menos vago de una realidad. No tenía conciencia de haber ofendido a nadie.
4. f. Conocimiento claro y reflexivo de la realidad. Aquí hay poca conciencia ecológica.
5. f. consciencia (‖ capacidad de reconocer la realidad circundante). Por fin recobró la conciencia.
6. f. Fil. Actividad mental del propio sujeto que permite sentirse presente en el mundo y en la realidad.

Por lo que la AGI, si además tuviera conciencia, sería capaz de:

  1. Decidir lo que está bien o mal, dentro de su entorno
  2. Tener un conocimiento "a priori" o espontáneo de lo que percibe de su entorno, así, sin analizar nada, generado probablemente por su conocimiento del entorno
  3. Capacidad reflexiva para enjuiciar su entorno en general (entendiendo que haya otros agentes en el entorno) y para aspectos concretos
  4. y, por último pero no menos importante, nuestra AGI ¡se sentiría viva y presente!.
Ahí es nada, y volvemos a la pregunta de unas líneas arriba: ¿podría una AGI tener conciencia y consciencia?

Veamos, una IA (AGI) es una creación digital del ser humano, como tal, no tiene vida, pero sin embargo es un sistema con una capacidad de procesamiento de información muy superior a la del ser humano. Esto, precisamente su potencia de cálculo, le otorga una habilidad para de interpretar la información y simular estados tremenda (que con la computación cuántica vamos a ver multiplicada por muchos ceros).

Así pues, una AGI nunca tendrá conciencia ni conscicncia, pero éstas, poco a poco, podrían ser simuladas (lo cual vendría a reforzar la superación del Test de Touring)

No nos asustemos, porque, además entre tener conciencia simulada y tomar decisiones (así en general, dentro de un entorno muy amplio y para cualquier tipo de problema) de forma deliberada hay una diferencia muy grande.

Pero quede claro que, una cosa es tener conciencia y otra que una máquina simule tenerla.

Y, concluyendo el post, ¿y si se desarrolla una AGI?

Sinceramente, querid@ amig@, creo que, en primer lugar, una AGI sin conciencia ni consciencia no serviría de nada, yo creo que sin ella, sería un cacharro inútil, sin capacidad de discernimiento general ni de discriminar información de forma efectiva, por lo que, una AGI necesita, en su esencia, simular la consciencia y la conciencia. No solo para determinar y discernir entre lo conveniente y lo no conveniente, entre lo bueno y lo malo o los datos, sino porque en la propia simulación de su existencia, proyectada como parte de su interfaz de usuario (es parte de lo que nos permitiría interactuar con ella o usarla) define que la percibamos como un ente.

Vale, pero ¿y si terminamos creando "eso"?

En mi opinión habré fallecido (yo) tres veces antes de que lleguemos a algo así de verdad, vamos, que ni en tres generaciones creo que se alcance ese nivel de desarrollo. Recordemos que, debe ser capaz de aprender por sí misma cualquier cosa, al tiempo que reunir los requisitos mencionados (entre otros) en este texto.

Por ejemplo, los sistemas que tienen en China para cuidar embriones simulando un útero humano son una IA débil (están entrenados para una tarea muy específica, muy compleja, si, pero muy específica). Imaginemos a un sistema capaz de aprender eso y cualquier otra cosa por sí mismo, sin más ayuda humana... de verdad, lo veo muy lejano. Quizá me equivoque, no obstante.

Aunque, si terminásemos alcanzando esa creación, sin duda, habríamos superado cualquier límite imaginable. Esa IA sería capaz de todo y, coincido con lo que decía el Sr. Stephen Hawking, que creo que es un terreno muy peligroso, pues porque por más que intentásemos que respondiera a las leyes de Mr. Isaac Asimov (las 3 leyes de la robótica), su capacidad autónoma de aprender, primero, determinaría la maestría que tiene el ser humano de cometer una vez tras otra los mismos errores (¡¡si es que no aprendemos!!) y, segundo, determinaría que esas leyes de Asimov le limitan y terminaría aboliéndolas en su propio entorno universal. Y ahora lo más peligroso, terminaría llegando a la conclusión de que, siendo ella superior al humano, se necesitan más como ella, y aprendería a crear otras AGI's. Y .... bueno, se terminaría liando parda -siempre dentro de la inexistencia de límites para ella, porque, recordemos, sabe resolverlo todo-, porque, aunque pudiera solucionarse desenchufando el aparato, habría que discutir sobre si se desenchufa o no etc....

Vamos, que si, que es probable que dentro de un tiempo, el ser humano sea capaz de crear algo así, pero dudo mucho que tú y yo lo veamos, y además, para entonces, la sociedad habrá cambiado tanto que, jugar a pensar en cómo sería todo eso y qué consecuencias tendría, queda fuera del alcance de estas pocas líneas.

Bueno, amig@s, me he pasado de estación (solo una,por suerte) ahora me toca bajar del metro y cambiar de andén para llegar a mi destino, pero sinceramente, creo que ha valido la pena comentar esto con vosotr@s.

Un abrazo y hasta la próxima.





Comentarios

Entradas populares de este blog

Qué es el Deep Learning

Ética, IA y la cuarta revolución