Ir al contenido principal

Jerry Kaplan: «Los robots no van a levantarse contra nosotros, son meras herramientas»


El filósofo, profesor y emprendedor Jerry Kaplan - Jerry Kaplan (jerrykaplan.com)

Este experto en inteligencia artificial vaticina un futuro en el que las máquinas acabarán con el trabajo de muchas personas y en el que la humanidad tendrá que decidir si considera a estas como una nueva forma de vida

La ciencia ficción es un género al que se le presupone un cierto valor profético. Ha vaticinado un presente atestado de cámaras de seguridad (George Orwell), satélites geoestacionarios (Arthur C. Clarke) y astronautas en la Luna (Julio Verne). Pero, según Jerry Kaplan (White Plains, Nueva York, 1952), experto en Inteligencia Artificial (IA), doctor en Filosofía y profesor en la Universidad de Stanford, muchas de las fantasías que han reverberado gracias a la ciencia ficción también han suscitado un miedo injustificado hacia los robots y las máquinas inteligentes. Según Kaplan, sin embargo, «al menos en un futuro previsible, no hay nada de que preocuparse. Los robots no van a levantarse contra nosotros, son meras herramientas que hacen nuestro trabajo sucio».

En la ficción, robots e inteligencias artificiales han entrado en conflicto con el hombre una y otra vez. Se han rebelado contra el yugo de sus creadores y han despertado hondas cuestiones filosóficas sobre la naturaleza del ser humano o la definición de inteligencia. ¿Puede sufrir o ser consciente de sí mismo un robot? ¿Es el cerebro una máquina elaborada con materiales biológicos? A pesar de su formación, en «Inteligencia artificial», Kaplan no se ha centrado en la filosofía. Ha descrito a robots e inteligencias artificiales como meras herramientas, al estilo de un empresario o un ingeniero (de hecho, es fundador de cuatro empresas tecnológicas en Silicon Valley y ha desarrollado tabletas y smartphones. Mientras estaba en la universidad, Kaplan diseñó el programa del primer piano completamente digital, el Synergy).

Las máquinas no están predestinadas a enfrentarse al hombre, según Kaplan. Los peligros futuros de robots y otros dispositivos inteligentes «no están relacionados con la filosofía o la naturaleza de la inteligencia artificial, sino con problemas de ingeniería». Es decir, con el mal diseño de las máquinas, tal como puede ocurrir con una lavadora o un motor defectuoso. Aunque ya hay investigadores, como Geoffrey Hinton, que trabajan con redes neurales que imitan a las neuronas humanas, para Kaplan la relación entre organismos biológicos y la inteligencia artificial es más bien metafórica, o sencillamente mera inspiración. Al menos durante los próximos 50 años.

"El propósito de la IA no es recrear la inteligencia del hombre, sino expandir las máquinas"

«Nuestro único modelo acerca de cómo son las máquinas es nuestra propia experiencia humana. Pero si piensas como un ingeniero, el propósito de la IA no es recrear la inteligencia del hombre ,sino expandir las máquinas para hacer todo tipo de tareas», dice Jerry Kaplan.
Conflictos inevitables
El experto vaticina que la tecnología seguirá su imparable carrera y que «las generaciones futuras verán nuestros miedos como algo idiota». Pero habrá algunos conflictos: «Las máquinas evaporarán el trabajo y dejarán sin empleo a muchas personas». Las habilidades de muchos quedarán obsoletas: conductores, cocineros o recepcionistas perderán su razón de ser cuando las máquinas hagan su trabajo de forma más eficiente. Junto a esta transformación, el experto cree que hay un riesgo de que la inteligencia artificial «aumente las desigualdades sociales», puesto que será una herramienta de generación de riqueza solo al alcance de los más privilegiados.

"Las máquinas evaporarán el trabajo y dejarán sin empleo a muchas personas"

Por encima de todo, a medida que las máquinas sean más potentes, veloces y cercanas a los hombres, las consecuencias de sus errores serán más catastróficas, predice el futurólogo. Empleados como artilugios militares engendrarán armas más letales, más selectivas, más peligrosas. «Pero lo más inquietante», según Kaplan, «es que instituciones, organizaciones y grupos terroristas podrán aprovecharse de esta tecnología para causar enormes daños. Algo que hoy realmente no pueden hacer». ¿Qué pasaría si coches autónomos o armas robóticas quedasen bajo su control?
Kaplan cree que a largo plazo la sociedad tendrá que tomar una decisión fundamental. Sostiene que es posible que en el futuro «humanos y máquinas se fusionen, expandiendo nuestra capacidad a unos niveles semidivinos». La alternativa es que «sigamos pensando que los humanos son humanos y que las máquinas son meras herramientas», añade. El hecho de que lleguemos a ver a las máquinas como simples objetos, o como algo más, «dependerá, en general, de cómo queramos usar la tecnología en el futuro».

En el campo de la inteligencia artificial, este pensador considera que la cuestión de fondo es si las generaciones futuras considerarán a las máquinas como objetos de ética y empatía, o si las considerarán como una nueva forma de vida.

"La palabra «robot» nació en 1920"

Que lo hagan o no, dependerá de cómo sean definidas estas máquinas. La palabra «robot» nació en una obra del autor teatral checo Karel Capek, publicada en 1920 (Robots universales de Rossum), y deriva de la palabra checa «robota», que significa trabajo forzado. Desde entonces ha servido para definir a máquinas autónomas que hacen alguna tarea física. Con el imparable perfeccionamiento de la inteligencia artificial (concepto que cristalizó en una conferencia celebrada en Dartmouth, Estados Unidos, en 1956), resultó evidente que las máquinas podían aprender. Desde entonces, la distinción entre la máquina y ser vivo empezó a difuminarse y a resultar más problemática de lo que se pensaba. «La filosofía de la IA», escribe Kaplan, «se plantea la cuestión de si puede decirse que las computadoras tienen mente y/o piensan. Pero la respuesta depende de lo que queramos decir con mente y pensar». La complejidad de la pregunta explica que el debate lleve décadas sobre la mesa.
Juego de imitación
Entonces, ¿pueden pensar? El matemático inglés Alan Turing construyó el «juego de imitación» para tratar de averiguar si tenía sentido aplicar el término «pensar» a las inteligencias artificiales, y consideró que no. El filósofo John Searle propuso que los programas informáticos podían simular el pensamiento, pero no duplicar el proceso de las mentes humanas, tal como un piano informático ejecuta una obra de Chopin.

"O las máquinas y nosotros tenemos libre albedrío, o ninguno de los dos lo tenemos"

Las dudas se multiplican cuando se plantea el dilema de si las máquinas podrían llegar a tener consciencia o libre albedrío. «Nuestra noción sobre el libre albedrío es inconsistente con las evidencias científicas», sostiene Kaplan. «Así que estamos forzados a este razonamiento: o las máquinas y nosotros tenemos libre albedrío, o ninguno de los dos lo tenemos».
La ciencia ficción pronosticó un futuro donde se alcanzaba la «singularidad», un fenómeno por el cual las máquinas serán lo suficientemente inteligentes como para mejorarse a sí mismas. Otros han sugerido que podremos transferir nuestras mentes a ordenadores. Para Jerry Kaplan lo primero es «tan probable como que aterrice una nave alienígena en la Tierra», y lo segundo, remoto. «Es difícil relacionar la tecnología real de nuestro tiempo con esas visiones de futuro».

De momento, todo apunta a que la inteligencia artificial y los robots serán nuestros aliados durante las próximas décadas. La inteligencia artificial ya se usa usa en traductores simultáneos, reconocimiento de imágenes y coches sin conductor. Los robots exploran el espacio, nos entretienen, van a la guerra y hacen tareas ingratas. El motor de búsqueda de Google ya es capaz de automejorarse y aprender. Podría llegar a responder a preguntas subjetivas y personalizadas, o a convertirse en un tirano con sus propios objetivos. Todo dependerá de la intención con la que los humanos sigan desarrollando esta máquina.

FUENTE: ABC.ES

Comentarios

Entradas más populares de este blog

1978: Comandante de una nave extraterrestre se entrevista con cónsul ecuatoriano

A nivel internacional diversos investigadores se han enfrascado en la elaboración de posibles protocolos para recibir a los extraterrestres, por lo que se estudian varias posibilidades para la entrega de información y de tecnología. Sabemos por las diversas desclasificaciones de documentos OVNI que para los Gobiernos es un tema que en lo público lo ridiculizan, pero en lo privado les preocupa. El caso que más llamó la atención en América del sur y que pone de manifiesto el interés de algunos alienígenas en mantener comunicación con los gobiernos sucedió el 4 de agosto de 1978 a las 18:30 horas en la embajada de Ecuador en Lima, Perú, cuando se presentó el comandante de una nave extraterrestre de nombre Banghu, quien pidió, sin éxito hablar con el representante ecuatoriano. Al día siguiente llegó un “requerimiento secreto” proveniente del Ministerio de Defensa de Ecuador a esa embajada para solicitar el número de tanques de guerra que desembarcarían en el puerto del Callao, el más im

Narciso Genovese: "Yo he estado en Marte"

Nacido en Turín, Italia, en 1911, Narciso Genovese emigra a la república de El Salvador y más tarde se traslada a México donde termina por radicar en la ciudad de Tijuana. Desde mediados de los años cincuenta comienza a publicar libros. Entre sus obras más importantes figuran: "Yo he estado en Marte" (1958) y "La Nueva Aurora" (1970). No hay que olvidar los manifiestos universales que publica en esas fechas como: "Jesucristo Hombre" y "La hecatombe y la paz"., que buscan ser alertas contra la guerra nuclear y la deshumanización de los seres humanos. En 1965, Ruben Vizcaíno Valencia funda la Asociación de Escritores de Baja Califonia e invita a Narciso Genovese a formar parte de ella. Se hace famoso con su obra "Yo he estado en Marte". En la primera edición acepta que su obra es “la cristalización de una fantasía novelesca de ciencia ficción”, pero en 1966, en su segunda edición en español (hay una traducción al alemán de 1964), decl

¿No aparece la Nueva Física? Usemos la fuerza bruta

Simulación de un choque de partículas en el LHC - CERN Los métodos convencionales no han producido ningún descubrimiento desde el hallazgo del bosón de Higgs en 2012. Los físicos del LHC quieren cambiar esta situación José Manuel Nieves @josemnieves Han pasado ya seis años desde el descubrimiento del bosón de Higgs y la Física, desde entonces, parece haber entrado en un incómodo impasse. Tras casi 50 años de búsqueda, el hallazgo en 2012 de la esquiva partícula cuya existencia fue predicha por Peter Higgs en 1964 completó el Modelo Estándar y cerró un capítulo importante en nuestra comprensión de la materia y las leyes que la gobiernan. Pero el Modelo Estándar, la teoría que reúne a todos los componentes de la materia junto a las interacciones a las que están sometidos, deja sin explicar cuestiones importantes, entre ellas la gravedad, cuya partícula asociada, si es que existe, jamás ha sido descubierta, la materia y la energía oscuras o la inexplicable falta de antimateria en