La era de las máquinas - Infobae

2022-12-20 11:32:53 By : Ms. Jennifer Zhou

El pasado 30 de septiembre Elon Musk presentó un prototipo de robot humanoide, llamado Optimus, que mide 1,73 metros, pesa 57 kilos, camina, transporta paquetes, riega las plantas, manipula objetos y funciona en base a inteligencia artificial. La máquina tiene un sistema de navegación similar al de los coches autónomos de Tesla, conectividad inalámbrica, visores y sensores incorporados, entre otras características.

El objetivo de Musk es producirlo en masa, a un bajo costo –menor a los USD 20.000–, y con alta fiabilidad para que convertir estos robots en trabajadores y asistentes de los seres humanos.

Luego de ver esta presentación, me puse a investigar un poco más sobre el estado del arte en la robótica y me topé con un video de la empresa Boston Dynamics en el que muestran a dos robots Atlas haciendo parkour, dando saltos, corriendo y haciendo acrobacias, entre otras cosas.

En la web de Boston Dynamics, la empresa explica que Atlas es un robot humanoide con la capacidad para realizar proezas de movilidad y mostrar agilidad a nivel humano. Funciona a base de algoritmos que le permiten “razonar” a través de complejas y dinámicas interacciones que involucran su cuerpo y el entorno para planificar sus movimientos.

Luego de ver estos dos robots en acción, inevitablemente me puse a pensar en películas como Terminator, Matrix y Yo, Robot. El argumento de estas películas es similar, máquinas con grandes capacidades que luego de un tiempo adquieren consciencia propia, concluyen que el problema de la humanidad somos los seres humanos y se rebelan contra nosotros para destruirnos.

¿Existe alguna probabilidad que estas historias de ciencia ficción se vuelvan realidad?

Musk afirmó que con el robot Optimus “quiere resolver uno de los problemas más difíciles de la inteligencia artificial: cómo hacer una máquina que pueda reemplazar a un humano” para asegurarse que la transición a una sociedad en la que los robots hagan el trabajo y las personas cosechen los frutos sea segura. También agregó que quiere “tener cuidado de no seguir la vía Terminator”, por la famosa película de Arnold Schwarzenegger.

Esto me lleva a preguntarme lo siguiente: ¿estos robots cumplirán con las tres leyes de la robótica de Asimov?

Según estas leyes, un robot no debe hacer daño a un ser humano ni permitir que sufra un daño; debe cumplir las órdenes de los seres humanos, salvo que entren en conflicto con la primera ley y finalmente, un robot debe proteger su propia existencia en la medida que esto no entre en conflicto con las dos leyes anteriores.

Ahora bien, si estos robots cumplen estas leyes, ¿qué tan lejos estamos que un día estas máquinas concluyan que el principal problema de la humanidad somos los propios seres humanos y que para protegernos de nosotros mismos deben rebelarse y alzarse contra la humanidad?

Básicamente, este es el argumento central de las películas Yo, Robot y Matrix: se crean robots inteligentes con buenas intenciones, para hacer nuestra vida mejor, pero al final todo se desmadra y terminan rebelándose contra los seres humanos.

Si bien es cierto que estos ejemplos son meros relatos, no sería la primera vez que la ciencia ficción se adelanta y predice el futuro. En su famosa obra “20.000 leguas de viaje submarino”, de 1879, Julio Verne soñó e inmortalizó al submarino eléctrico Nautilus, que no fue inventado sino casi un siglo después. H.G. Wells predijo los tanques de guerra en “Los acorazados terrestres” de 1903, Erich Fromm imaginó la tarjeta de crédito en su novela “Mirando atrás” de 1888 y George Orwell anticipó los sistemas de vigilancia gubernamentales en la inolvidable “1984″.

Hace poco, Blake Lemoine, un empleado de Google, declaró que LaMDA, un sistema de inteligencia artificial de la compañía se volvió consciente y contrató un abogado para demostrar que estaba “viva” y defender así sus “derechos”.

La noticia dio vuelta el mundo.

Esto nos lleva a temas como las cajas negras en la inteligencia artificial, la transparencia de los algoritmos y los sesgos. Una caja negra o black box es un modelo de inteligencia artificial cuyo funcionamiento no es transparente, ya que produce un resultado o toma una decisión, pero no explica ni muestra cómo llega a ese resultado. En estos casos, ni siquiera los programadores o administradores del sistema saben cómo la IA llegó a determinado resultado.

En un informe de septiembre de 2021, la Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet, hizo énfasis en estos riesgos y en la necesidad de tomar medidas urgentes al respecto. En este informe, explica que “los procesos de toma de decisiones de muchos sistemas de IA son opacos. La complejidad del entorno de datos, de los algoritmos y de los modelos subyacentes al desarrollo y la operación de los sistemas de IA, así como el secreto intencional de los gobiernos y los actores privados son factores que socavan formas significativas para que el público comprenda los efectos que los sistemas de IA pueden tener sobre los derechos humanos y la sociedad. Los sistemas de aprendizaje automático agregan un elemento importante de opacidad; pueden ser capaces de identificar patrones y desarrollar prescripciones que son difíciles o imposibles de explicar. Esto a menudo se conoce como el problema de la “caja negra”. La opacidad hace que sea un desafío examinar de manera significativa un sistema de IA y puede ser un obstáculo para la rendición de cuentas efectiva en los casos en que los sistemas de IA causen daño”.

En el mismo sentido, en un artículo publicado en la web de la Comisión Europea, también se pone de resalto la falta de transparencia de estos modelos y cómo pueden generar innumerable cantidad de problemas, desde arrestos arbitrarios, sesgos y racismo, entre otros.

El punto central de estos ejemplos es que la tecnología no es infalible. Ya lo vimos con el funcionamiento del VAR en el Mundial de fútbol de Qatar 2022. La tecnología puede fallar y los peligros son mayores cuando lo que está en juego son los derechos humanos. Una cosa es cobrar mal un offside y otra es sentenciar erróneamente a prisión a una persona.

Por eso es importante no subestimar el potencial de la tecnología. Como dijo Bill Gates, solemos sobreestimar el impacto de la tecnología en el corto plazo y subestimarlo en el largo plazo.

En estos casos, siempre recuerdo la genial frase de Arthur C. Clarke, “cualquier tecnología suficientemente avanzada es indistinguible de la magia”. Hoy Terminator y Matrix pueden parecer magia o ciencia ficción, pero mañana podrían llegar a ser algo real.

Por eso mismo, debemos enfocar nuestra atención y esfuerzos en anticipar, planificar y mitigar los peligros que estas tecnologías y sistemas pueden generar para la humanidad en el largo plazo y no dejarnos llevar tanto por la euforia inicial que causan en el corto plazo.

Aun cuando estas tecnologías no se vuelvan conscientes y se rebelen contra la humanidad, es importante tener en cuenta el factor humano. Las tecnologías como machine learning, deep learning, big data, internet de las cosas, computación cuántica y robótica son herramientas. Como toda herramienta, la clave está en cómo las utilicemos.

Con estas tecnologías se pueden desarrollar soluciones de gran valor para las empresas y las PyMES. Son herramientas habilitadoras, que permiten a las empresas y organizaciones orientarse a datos, conocer mejor a sus clientes, mejorar sus estrategias de marketing, optimizar sus operaciones, dar solución a sus necesidades de negocio, tomar mejores decisiones y mejorar sus propuestas de valor.

Pero hay otro grupo de aplicaciones cuyos riesgos y peligros podrían superar ampliamente sus beneficios.

Hace pocos días fue noticia el dron Lanius, desarrollado por la empresa Elbit Systems. Se trata de un aparato de 1.25 kilos, capaz de alcanzar los 70 km/h, sobrevolar un territorio, explorar y mapear de forma autónoma edificios y puntos de interés en busca de amenazas, detectar, localizar, clasificar y atacar objetivos, transportar cargas útiles letales y realizar distintos perfiles de misión para fuerzas especiales, militares y fuerzas del orden. Salvando las diferencias, un dron de este tipo me recuerda a Iron Man.

Sin irnos tan lejos, hace unos meses circuló en las redes el experimento The Follower (el/la seguidor/a), un proyecto que utiliza inteligencia artificial y cámaras de la vía pública para rastrear fotos de Instagram y obtener el preciso momento en que se tomó la foto publicada. En estos casos, los potenciales peligros a la seguridad y privacidad de las personas son evidentes.

The Follower me recordó aquella serie llamada Person of Interest (“Vigilados, Person of Interest”), estrenada en 2011 cuyo argumento se basa en una inteligencia artificial que predice la identidad de agresores o víctimas de crímenes futuros y para ello, se vale de cualquier cámara y teléfono al que pueda conectarse. Parte de la trama de la serie consiste en el planteo ético de crear un sistema de tal tipo y en las consecuencias de esa decisión. En la serie, el co-protagonista Mr. Finch crea la IA para salvar a las personas de atentados como el de las Torres Gemelas, pero finalmente –como siempre en estos casos– todo se sale de control, porque otros grupos de personas quieren utilizar esta tecnología para el mal.

Y aquí tenemos los dos peligros centrales de estas herramientas: que estos robots, drones o sistemas se vuelvan conscientes y autónomos o que alguien quiera utilizarlos para el mal.

¿Cuál es el límite entre lo ético y lo no ético? ¿Dónde está el límite entre lo oportuno y lo peligroso?

Es importante resaltar que, aunque originalmente se desarrollen robots, drones o sistemas de este tipo con buenas intenciones, nadie puede asegurar que siempre se utilicen para el bien. Los riesgos se agravan si a esto le sumamos sistemas de inteligencia artificial que son cajas negras combinados con robots y drones con altas capacidades que el día de mañana podrían volverse conscientes y rebelarse contra la humanidad –y ni hablar de los posibles efectos de la computación cuántica–.

En todos estos casos, vale preguntarnos cómo actuar. ¿Conviene regular, controlar o dejar estos proyectos librados al azar?

El presidente norteamericano Joe Biden acaba de presentar un Anteproyecto de Carta de Derechos sobre la IA. Según reporta el MIT Technology Review, el objetivo es “asumir la responsabilidad en el ámbito de la inteligencia artificial […] Sin embargo, los críticos creen que el nuevo plan carece de fuerza y que EEUU necesita una regulación aún más estricta en torno a la IA”. Regular acertadamente parece la opción más adecuada pues, al fin y al cabo, “la IA es una tecnología poderosa que está transformando nuestras sociedades. También tiene el potencial de causar daños graves” (MIT Technology Review).

Tanto Stephen Hawking como Elon Musk, entre otros, han expresado sus preocupaciones sobre los peligros y consecuencias que estas tecnologías pueden tener para la humanidad.

Por eso, en materia de inteligencia artificial, computación cuántica y robótica, es importante pensar con un enfoque de prevención de riesgos a largo plazo. Más allá de la euforia inicial con algunos de los desarrollos más radicales, gobiernos, empresas, desarrolladores, investigadores y la sociedad en general, deberíamos trabajar en conjunto para establecer regulaciones, sandboxs regulatorios (entornos de prueba controlados), lineamientos, estándares, hojas de ruta y clasificaciones para identificar y agrupar proyectos con alto potencial de riesgo, a fin de someterlos a cierta regulación y supervisión externa, aumentar la transparencia, prevenir cajas negras, incrementar la rendición de cuentas y evitar que, en este caso, la realidad supere a la ficción.

Al fin y al cabo, como escribió Andrew Grove, ex CEO de Intel, y como repetía Mr. Finch, uno de los protagonistas de Person of Interest, “sólo los paranoicos sobreviven”.