¿La Inteligencia Artificial va a matarnos a todos?

[Tecnología. Inteligencia artificial. Discursos. IA. Apocalípticos. Optimistas. Robotica. Tecnofobia. Hal. 2001: odisea en el espacio. Deep learning]

por Mateo Servent

En la actualidad existen discursos sociales que fluyen, por ejemplo, a través de parte del periodismo, y que reproducen una visión que es cuanto menos desviada de lo que realmente se asocia a la robótica y la Inteligencia Artificial (IA). Lejos de ser un destino inevitable hoy la IA es un hecho: está presente en los comportamientos de las subjetividades contemporáneas así como en un número cada vez mayor de aspectos fundamentales de nuestras sociedades. A pesar de contar con hazañas impresionantes es relativamente desconocida en su complejidad para la mayoría de las personas. Estas situaciones de desconocimiento pueden llegar a mostrar una carencia de problematización del agente social y es por ello que urge, particularmente para quienes estamos afectados y a la vez distantes de la discusión, una aproximación a algunas de sus implicancias.

A modo de punto de partida podemos pensar la IA como “un amplio y heterogéneo conjunto de tecnologías, máquinas, sistemas y software que mediante la codificación de información y su procesamiento gracias a algoritmos buscan reproducir o imitar algunas características de la inteligencia humana como la representación del conocimiento, el razonamiento, la deducción y el aprendizaje con el objetivo de realizar tareas como el análisis de grandes cantidades de información, el reconocimiento de voz, la identificación de imágenes, el procesamiento del lenguaje, el aprendizaje automático, la planeación, la robotización de los procesos productivos, entre otras.”[1]

Esta compleja y no finalizada conceptualización de la IA nos puede ayudar a revisar las miradas simplificadoras sobre la tecnología. No es poco frecuente que al hablarse de IA se haga referencia a agentes computacionales con un razonamiento inalcanzable para humanos, capaces de reproducir cualquier capacidad de las personas de manera más veloz y eficaz. En la película 2001: Odisea en el espacio es posible avistar cristalizaciones de estas nociones. Allí, Hal es una computadora que no solo controla la nave espacial sino que realiza múltiples acciones en paralelo, como comportarse afectada por emociones. De esta manera, en Hal se muestra la posesión de una cierta conciencia electrónica capaz de gobernarlo casi todo[2]. Cierto es que el film es ciencia ficción, pero aun así es posible vislumbrar en la premonición que propone (con presencia en los discursos sociales relacionados a una “tecnofobia”) un inminente advenimiento de una revolución tecnológica que se deslizaría hacia un futuro próximo determinado y de esta forma, también, el presente estaría relativamente escrito. Pero sucede que el potencial revolucionario actualmente, sin dejar de tener en cuenta la aceleración de las tecnologías y las innovaciones ininterrumpidas, no es tal, ni mucho menos se encuentra con una orientación delimitada.

El Deep Learning (o aprendizaje profundo) es una destacada innovación tecnológica de central relevancia para el campo de la IA. Hace referencia a una “técnica de las ciencias de la computación que consiste en el diseño de redes neuronales (inspiradas en la “arquitectura” del cerebro) que son entrenadas con gran cantidad de información, con el objetivo de que los sistemas “aprendan” a partir de los datos con que son alimentados y de esa manera mejoren su funcionamiento[3]. Algo así como enseñar a una máquina a hacer algo mostrándole muchos ejemplos. Pero no es tan sencillo como a primera impresión pareciera: posee fragilidades. M. Mitchell Waldrop en un artículo reciente sobre aprendizaje profundo propone que, siguiendo a Geoffrey Hinton, “para que un niño aprenda a reconocer una vaca, no es como si su madre necesitara decir “vaca” 10,000 veces”— un número que a menudo se requiere para los sistemas de aprendizaje profundo. Los humanos generalmente aprenden nuevos conceptos de solo uno o dos ejemplos””[4]  Los procesos cognitivos de máquinas y humanos no han devenido semejantes hasta ahora, aún más, los 10.000 ejemplos no garantizan un margen de error que ofrezca altos niveles de confianza en los sistemas computacionales.

Un elemento característico de los procesadores electrónicos en contraste con la mecánica es su problemática autonomización parcial, puesto que se les es otorgada la capacidad de “tomar el control” durante la realización de una operación, las maquinas pueden actuar sin la intervención humana a partir de su puesta en marcha. En referencia a la IA que hoy se está procesando, investigadores del Oxford Internet Institute sostienen que “estos sistemas son mucho más frágiles y propensos a errores que los materiales de marketing tienden a presentar. Por ejemplo, los algoritmos de autoaprendizaje de IBM han sugerido intervenciones médicas erróneas que podrían tener consecuencias fatales. Elon Musk lanzó la tecnología de conducción autónoma de Tesla demasiado pronto, en contra de los consejos de sus ingenieros. Después de varios accidentes fatales y demoras en el desarrollo proyectado, incluso la industria automotriz está comenzando a perder la confianza en la IA como una tecnología revolucionaria.”[5] . La IA es un poco más limitada que lo que generalmente se cree, sin embargo, no es una mera técnica que necesita ser regulada ni tampoco está cerca de ser neutral.

De todas maneras, resulta difícil de rebatir que la IA posee, en tareas y circunstancias específicas, grandes potencialidades comparadas a las de los seres humanos, es decir, una cierta superioridad cognitiva. La IA ha revolucionado más campos que el del ajedrez: la medicina, por ejemplo, actualmente está sufriendo transformaciones gracias a ella, puesto que es una herramienta con el potencial de ser capaz de analizar y comparar con una velocidad suprahumana enormes cantidades de datos de pacientes, ayudando de esta forma a pensar y diagnosticar mejor a los médicos. Por tanto puede suceder que, en ocasiones, realmente pueda contribuir en la búsqueda de una buena existencia de las personas.

Es probable que el mundo dentro de una década sea muy diferente al de hoy producto de cambios tecnológicos[6], y es por ello que nuestro presente demanda la elaboración de un diseño deseado y responsable de IA. Para dicho proyecto latente es importante, entre otras cuestiones, politizar el campo de discusión, partiendo de problematizaciones concretas y con un enfoque en aquellos ámbitos donde la incorporación de IA tiene efectos reales.


[1] Recuperado de: http://jornadasdesociologia2019.sociales.uba.ar/altaponencia/?acciones2=ver&id_mesa=9&id_ponencia=968

[2] Véase Eric Sadin, La emergencia de una cognición artificial superior en La Humanidad Aumentada.

[3] Idem nota 1. Subrayado mío.

[4] Recuperado de: https://www.pnas.org/content/116/4/1074.

[5] Recuperado de: https://www.oii.ox.ac.uk/blog/politicians-and-administrators-dont-expect-miracles-from-artificial-intelligence/ .

[6] Aunque no exclusivamente por ella, ya que los procesos históricos no responden, ni responderán, exclusivamente a la tecnología.

Comentarios

Leave a Reply

Tu dirección de correo electrónico no será publicada.

You may use these HTML tags and attributes:

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>