Nos asusta, pero nos gusta

Así como el espacio, la inteligencia artificial (I.A.) se ha convertido en un tema que nos asusta, pero nos gusta. Por un lado, representa los alcances que puede tener un robot que es “casi como un humano”, pero por otro abre la puerta hacia un mundo aún desconocido y que podría cambiar radicalmente la existencia y concepción de las máquinas.

La gran mayoría recuerda al T-800, el personaje interpretado por Arnold Schwarzenegger en “Terminator” (1984), quien demuestra que un robot y la inteligencia artificial es algo mucho más allá de programación, tecnología y cables.

María Alesandra Pámanes María Alesandra Pámanes Publicado el
Comparte esta nota

“La I.A. es un extraño caso en el que necesitamos ser proactivos con la regulación y no reactivos. Porque para cuando seamos reactivos con su regulación, ya podría ser muy tarde”
Elon MuskEmpresario e inventor
“Aunque el impacto a corto plazo de un sistema de inteligencia artificial depende de quien lo controla, la cuestión a largo plazo es si un sistema así puede ser controlado por seres humanos”
Stephen HawkingFísico teórico y astrofísico
En países como Rusia ya se busca fusionar la inteligencia artificial con rubros como la robótica

Así como el espacio, la inteligencia artificial (I.A.) se ha convertido en un tema que nos asusta, pero nos gusta. Por un lado, representa los alcances que puede tener un robot que es “casi como un humano”, pero por otro abre la puerta hacia un mundo aún desconocido y que podría cambiar radicalmente la existencia y concepción de las máquinas.

La gran mayoría recuerda al T-800, el personaje interpretado por Arnold Schwarzenegger en “Terminator” (1984), quien demuestra que un robot y la inteligencia artificial es algo mucho más allá de programación, tecnología y cables.

Aunque dicho personaje es ficticio, ya estamos en una era en la que los humanoides piensan y “sienten” como seres humanos.

De hecho, la I.A. es una amenaza para el hombre, de acuerdo a Elon Musk, quien es empresario, inventor y CEO de Tesla Motors y Space X.

Esta semana, Musk advirtió sobre los riesgos a los que se expone la sociedad si no se regulan las compañías, “la I.A. es un extraño caso en el que necesitamos ser proactivos con la regulación y no reactivos. Porque para cuando seamos reactivos con su regulación, ya podría ser muy tarde”, dijo.

Inclusive Musk instó a los gobernantes de Estados Unidos a tomar medidas para prevenir los riesgos que puede suponer el desarrollo de la I.A. y aconsejó que se debería de establecer un organismo que se encargue de supervisar y guiar esta tendencia innovadora.

Elon, que fundó PayPal, puntualizó que suele “estar en contra de las regulaciones estrictas, pero en inteligencia artificial la necesitamos”.

Dentro de 20 años, dijo Musk, “no es que no vaya a haber gente al volante, es que directamente no habrá volante”.

No lo dice un “puritano” o una persona que se resiste a la tecnología, sino uno de los hombres más entusiastas e innovadores que hay. De hecho, Elon Musk lidera la nueva empresa llamada Neuralink, la cual busca crear un enlace neuronal, para que sea posible la conexión entre el cerebro humano y las computadoras.

Y es que la importancia de regular campos como la I.A. radica en que así se puede no solo prevenir riesgos, sino también se actuaría de manera temprana, ya que se suele regular cuando ya se presenta un problema o protestas públicas y no de manera preventiva.

Musk considera que hoy es el momento oportuno para regular la inteligencia artificial, pues ésta crece aceleradamente. Para el empresario, los seres humanos tienen de dos sopas: o se fusionan con las máquinas o se vuelven “irrelevante” ante la I.A.

‘El peor error del hombre’

Elon Musk no es la única mente brillante de la actualidad que advirtió sobre los riesgos de I.A., el físico teórico, astrofísico y científico británico Stephen Hawking declaró que la inteligencia artificial podría ser “el peor error de la humanidad”, ya que la comunidad científica no está preocupada –como debería– para mantener bajo control a lo que sería un sistema de inteligencia artificial, el día en que éste se descubra (que no está muy lejano).

Y junto con Stuart Russell, Max Tegmark y Frank Wilczek, el científico escribió en The Independent que “si miramos hacia el futuro, no hay límites a lo podemos lograr en este campo (I.A.). No hay ninguna ley física que impida que las partículas en un sistema de inteligencia artificial se reordenen a sí mismas para realizar cálculos más complejos de los que somos capaces de hacer los seres humanos. Es perfectamente posible que se produzca un salto radical e inesperado”.

Hawking, Russell, Tegmark y Wilczek agregaron en su publicación que “aunque sabemos que la I.A. tiene el potencial para ser el mayor acierto, o el peor error de la humanidad, no se están investigando seriamente sus implicaciones Las únicas organizaciones que están estudiando esto son el Centro Cambridge para el estudio del riesgo existencial, el Instituto para el futuro de la humanidad, el Centro de Investigación de Inteligencia Artificial, o el Instituto Vida Futura. Todos nosotros deberíamos preguntarnos desde hoy mismo qué puede hacerse para aprovechar lo mejor de la inteligencia artificial y evitar lo peor”.

Como en la ciencia ficción

Qué mejor manera de representar los alcances, peligros y ventajas que brinda la inteligencia artificial que por medio de una película. Te recomendamos los siguientes filmes cuya trama gira alrededor de este tema y que, en la mayoría de los casos, muestra la interacción de la máquina y el hombre.

“Blade Runner” (1982)

“Terminator” (1984)

“A.I. Inteligencia artificial” (2001)

“Yo, robot” (2004)

“Ella” (2013)

“La máquina” (2013)

“Interestelar” (2014)

“Ex-Máquina” (2015)

Síguenos en Google News para estar al día
Salir de la versión móvil