Imagen: César Mejías

¿Deberíamos temerle a la inteligencia artificial? Lo que opinan 3 genios contemporáneos

Desde hace décadas que vemos en las películas a uno que otro robot asesino. Está bien, es ciencia ficción, pero ¿qué pasaría si se vuelve realidad? Tres grandes de la tecnología (Hawking, Musk y Zuckerberg) han planteado sus visiones al respecto durante este año y esto es lo que creen.

Por Rodolfo Westhoff @rwesthoff | 2017-08-28 | 07:00
Tags | inteligencia artificial, máquinas, tecnología, Elon Musk, Stephen Hawking, Mark Zuckerberg

Hay casos en los que computadores han derrotado a humanos en juegos de mesa, además hay robots que hacen entrevistas de trabajo, manejan autos e incluso máquinas que crearon su propio lenguaje. Llegamos a ese punto de nuestra sociedad en la que empezamos a preocuparnos en serio sobre el desarrollo de la Inteligencia Artificial (IA).

¿Se nos podría salir de las manos? ¿Terminaremos en un mundo dominado por robots? ¿Somos más tontos que los computadores? ¿Es acaso el fin, señores?

La discusión ha estado particularmente candente este año, así que en El Definido decidimos ver qué es lo que piensan al respecto las mentes contemporáneas más brillantes en el ámbito de la tecnología y esto fue lo que encontramos.

Hello darkness, my old friend

Una de las visiones más pesimistas viene de la mano del cofundador de Tesla, Elon Musk quien prácticamente posee un imperio de autos electrónicos y está detrás de una misión para colonizar Marte. Su pensamiento se reduce a que la IA es uno de los mayores riesgos que enfrenta actualmente la humanidad y que los desarrolladores deberían ponerle la patita al freno durante un tiempo. ¿La razón?

Ponerse el parche antes de la herida, ya que según el magnate, no deberíamos esperar a que ocurra algún desastre para empezar a hacer las regulaciones correspondientes. Porque todos hemos visto suficientes películas como para saber en qué terminaría el asunto si se nos escapa de las manos…

via GIPHY

“He estado frente a la tecnología de IA más vanguardista que existe y pienso que la gente debería estar realmente preocupada por el asunto (…) estoy constantemente advirtiéndole del problema a las personas, pero hasta que no veamos robots en las calles asesinando a la población, no sabrán qué hacer porque lo consideran algo muy etéreo”, sostuvo Elon en la Reunión Nacional de Gobernadores de Estados Unidos en julio de este año.

¿Qué hacer entonces? Todo apunta a que la propuesta de Musk se reduce a crear una serie de regulaciones y restricciones para los desarrolladores tecnológicos. De todos modos, aún no tiene una idea concreta de cómo se debería avanzar en esa línea. Hasta ahora, lo que ha dicho es que es importante informarse lo más posible sobre el tema y sus posibles repercursiones.

Tampoco es como para alarmarse, pero… LE PIDIÓ A LA ONU QUE PROHIBA LA FABRICACIÓN DE ARMAS AUTÓNOMAS. Esto, a través de una carta firmada por otros 116 fundadores de compañías robóticas. Miedo.

Relax, don’t do it

En el otro lado del ring se encuentra Mark Zuckerberg, el fundador de Facebook, con una visión mucho más relajada al respecto. Y ojo que la analogía del boxeo no fue al azar: durante los últimos meses Mark y Elon se han enfrentado a través de las redes sociales y la prensa por su visión muy distinta sobre el futuro de la IA.

Mientras uno le tiene miedo a un futuro apocalíptico dominado por máquinas, el otro cree que pensar así es de alaraco. “En general soy alguien optimista. Creo que puedes construir cosas y el mundo mejorará con ellas, pero especialmente con los sistemas de Inteligencia Artificial, soy muy optimista (…) pienso que la gente que intenta plantear estos escenarios apocalípticos es muy negativa y de alguna manera me parece que eso es bastante irresponsable”, señaló el fundador de Facebook en una tramisión en vivo.

“En los próximos 10 años, la inteligencia artificial aportará muchas mejoras a nuestra calidad de vida”, agregó.

En ese sentido, cree que el problema de fondo recae en cómo los humanos desarrollamos y aplicamos la tecnología. Lo que a su juicio no justifica que se creen instancias para restringir o contener el avance de la IA, frase que no le cayó para nada bien al cofundador de Tesla. ¿Su respuesta? “He hablado con Mark sobre el tema, pero su entendimiento del asunto es limitado”. Chan, chan, chan.

Take over the world

Sin duda que la Inteligencia Artificial ha sido un tema este año. No por nada, Stephen Hawking sorprendió al mundo al dar a conocer su idea para evitar que esta tecnología se nos escape de las manos: crear un gobierno mundial. ¡¿What?!

Esto recae en su miedo que el desarrollo tecnológico avance de tal manera que terminemos teniendo máquinas superdesarrolladas. ¿Y por qué se tendrían que poner agresivas con nosotros mismos? Según Hawking, porque la agresión es parte de nuestra naturaleza y, por lo tanto, no sería raro que se lo transmitiéramos a los robots.

Es por eso que su propuesta se basa en redefinir lo que entendemos como gobierno y llevarlo a un plano mundial. La idea es que exista una organización de alcance global capaz de controlar el avance de la IA (para evitar que termine matándonos a todos). Aunque, claro está, eso podría dar paso a una tiranía planetaria si es que las cosas se nos van de las manos y Hawking lo sabe.

Ahora, quizás sea una idea muy revolucionaria, pero se entiende el punto: el físico cree que la AI podría convertirse en un peligro para la humanidad y, por lo tanto, deberíamos hacer algo al respecto. Muy en línea de lo que plantea Elon Musk, pero completamente distinto a la visión del futuro que tiene el optimista Mark Zuckerberg.

¿Alguién más se une al baile?

Hay muchos expertos que han reflexionado sobre qué tan amenazados nos deberíamos sentir frente a la IA.

Bill Gates, ya había señalado el 2015: “Al principio máquinas harán muchos trabajos para nosotros y no serán súper inteligentes. Eso debería positivo si lo manejamos bien. Aunque unas pocas décadas después, la inteligencia será lo suficientemente fuerte como para ser una preocupación".

Fabio Gandour, jefe de investigación en IBM, dice: “Yo no tengo miedo de las máquinas, yo tengo miedo de la gente. En la máquina, uno programa, si te molesta lo apagas. Con la gente no. Yo sé cómo hacer que las máquinas aprendan y sé cómo hacerlas trabajar para que esa inteligencia me favorezca. Le tengo más miedo a la gente que usa la inteligencia de forma impredecible”.

Para Jorge Baier, académico de Ciencia de la Computación de Ingeniería UC, tiene que ver con el mal uso que se le puede dar, como fines bélicosNo ve una amenaza al estilo que “un día escribamos un programa y que el programa se nos salga de control y empiece a hacer cosas que nosotros no queremos que haga y empiece a destruir cosas”.

Francisco Watkins, académico del Depto. de Ingeniería Eléctrica de la Usach comparte la visión y agrega que la IA “puede emular la creatividad, pero tiene un límite. El Hombre agrega una parte emotiva que hace que se alcancen ciertas cosas inesperadas”.

Esto nos lleva, por último, a la visión de Kevin Kelly, fundador de Wired y experto en cultura digital, quien dice que hay que adoptarla en vez de temerle y que nos conduciría a una segunda revolución industrial. Explica que las IAs son muy específicas y cada una cumple una función para facilitar procesos, por lo que no tendría sentido crear máquinas que tuvieran una inteligencia humana, con emociones. Derriba también lo que considera mitos que nos llevan a pensar que los máquinas podrían superarnos o hasta esclavizarnos.

¿De qué lado estás? ¿Crees que la Inteligencia Artificial podría salirse de control?