jueves, febrero 16, 2012
¿Es factible una rebelión de las maquinas?
Si un montón de películas de ciencia ficción tienen razón, dentro de poco tiempo la humanidad estará en guerra contra las máquinas y estas ultimas destruirán la civilización.
Dos populares películas basadas en un apocalipsis robótico, "Terminator" y "Matrix", están entre las que sugieren que una mayor autonomía para las máquinas artificialmente inteligentes terminará acabando con nuestra especie. Sólo temporalmente, gracias a John Connor y Neo.
Dado el ritmo actual de desarrollo tecnológico, el escenario de un apocalipsis robótico parece más ¿inverosímil o profético? El destino del mundo podría inclinarse en cualquier dirección, dependiendo de a quién se le pregunte.
Los investigadores en el campo de la informática están en desacuerdo sobre el camino a seguir para las máquinas, ellos dicen que nuestra relación con las máquinas, probablemente será armoniosa, no asesina. Sin embargo, hay una serie de escenarios que podrían conducir a que los seres no biológicos estén destinados a exterminarnos.
Ya existe la tecnología para construir un sistema que puede destruir el mundo entero, intencionalmente ,solo si detecta las condiciones adecuadas ", dijo Shlomo Zilberstein, profesor de ciencias de la computación en la Universidad de Massachusetts.
Las máquinas a nuestra disposición
Consideremos primero el punto de vista optimista: que las máquinas siempre actuarán como nuestros servidores y no al revés.
"Un enfoque es no desarrollar sistemas que puedan ser tan peligrosos si estuvieran fuera de control", dijo Zilberstein.
Algo parecido a Skynet , la red de defensa computarizada en "Terminator", que decide acabar con la humanidad ya es posible. Así que ¿por qué no es construido? Una gran razón: naciones con armas nucleares como Estados Unidos no quiere entregar a cualquiera la responsabilidad para el lanzamiento de ojivas nucleares desde un ordenador. "¿Qué pasa si hay un error en el sistema? Nadie va a asumir ese riesgo", dijo Zilberstein.
En una escala menor, sin embargo, un alto grado de autonomía se ha concedido a los aviones que sobrevuelan en Oriente Medio. "El número de sistemas robotizados que realmente pueden apretar el gatillo de forma autónoma ya está creciendo", dijo Zilberstein.
Sin embargo, un operador humano controla un avión no tripulado y este le da la última palabra si se debe proceder con un ataque con misiles. Eso ciertamente no es el caso de Skynet, la cual, en las películas de Terminator, se le da el control de todo el arsenal nuclear de Estados Unidos.
En " Terminator", el ejército crea el programa con el objetivo de reducir el error humano y la lentitud de respuesta en caso de un ataque contra los EE.UU.
Cuando los controladores humanos ven el peligro que representa un Skynet todopoderoso, tratan de apagarlo. Skynet interpreta este acto como una amenaza a su existencia, y con el fin de contrarrestar la percepción humana a su enemigo, Skynet lanza misiles de Estados Unidos a Rusia, provocando un ataque de represalia. Miles de millones mueren en un holocausto nuclear y después construye fábricas que arman a los ejércitos de robots para eliminar el resto de la humanidad.
En un escenario de la vida real, Zilberstein piensa que salvaguardias simples evitaría que un sistema autónomo amenazara a las personas ,solo serviría para lo que está diseñado, tal vez en la vigilancia de las fronteras , por ejemplo.
Además, hay sistemas que se programan con la capacidad de hacer grandes decisiones estratégicas de la forma en que Skynet lo hace.
"Todos los sistemas que estamos propensos a desarrollar en el futuro cercano, tendrán habilidades específicas", dijo Zilberstein. "Van a ser capaces de controlar una región y disparar, tal vez, pero no van a sustituir a un humano en general".
Los robots que exceden nuestra comprensión
Michael Dyer, un científico de la computación en la Universidad de California en Los Ángeles, es menos optimista. Él piensa que "los seres humanos en última instancia, serán reemplazados por las máquinas" y que la transición no puede ser pacífica.
El continuo progreso en la investigación de la inteligencia artificial dará lugar a máquinas tan inteligentes como nosotros en los próximos cien años, Dyer pronostica. "Las civilizaciones avanzadas llegaran a un punto de inteligencia suficiente para entender cómo funciona su propio cerebro, y luego crear versiones sintéticas de sí mismos".
El deseo de hacerlo podría venir de los intentos de establecer nuestra propia inmortalidad y que la oportunidad podría ser demasiado irresistible para la humanidad .
Tal vez ese tipo de cambio de la biología a la tecnología va relativamente bien.
Dyer sugiere una nueva carrera armamentista del sistema robótico podría resultar en un aumento en espiral. "En el caso de la guerra, por definición, del lado enemigo, no tiene ningún control de los robots que están tratando de matarlos", dijo Dyer. Como Skynet, el manufacturado podría volverse en contra de los fabricantes.
O una situación de excesiva dependencia de la inocuidad de los robots se pondría fuera de control. Supongamos que una fábrica que hace a los robots no está siguiendo órdenes humanas, por lo que se emita una orden de apagar a la fábrica. Pero, por desgracia, los robots que gestionan la estación de energía y por lo tanto se niegan a hacerlo.
Así que un comando es emitido por los humanos para detener a los camiones de entrega de los materiales necesarios para la fábrica, pero los conductores son los robots, por lo que se niegan también", dice Dyer.
En general, un poco de sabiduría podría evitar que la humanidad caiga en las trampas ideadas por los guionistas de Hollywood.
Pero el afán de lucro a las empresas sin duda ha generado una mayor automatización.
"Los escenarios apocalípticos son bastante fáciles de crear, y yo no descartaría ese tipo de posibilidad", dijo Zilberstein. "Pero yo personalmente no estoy tan preocupado."
Suscribirse a:
Comentarios de la entrada (Atom)
No hay comentarios.
Publicar un comentario