Información publicada por la Agencia Reuters, reveló que un grupo de investigadores enviaron una carta al consejo de la firma OpenAI, donde señalaron que dicha tecnología era una amenaza para la humanidad. Tal afirmación puso en entredicho lo que hubo detrás del despido y recontratación de Sam Altman, quien fue director de dicha empresa desde 2019.
Vale resaltar que Altman es uno de los funcionarios con mayor información en el mundo sobre el desarrollo de esta tecnología, por lo que se especula que los programadores tal vez supieran algo que pudiera resultar peligroso.
@erci_upn ¿Crees que la inteligencia artificial es peligrosa? #inteligenciaartificial
Poderoso descubrimiento
Hasta el momento no se ha difundido el presunto contenido de la misiva, pero trascendió que es posible que los investigadores hubieran advertido sobre un poderoso descubrimiento sobre la Inteligencia Artificial.
Aunque se sabe que el funcionario de OpenAI participó en octubre pasado en la cumbre de directivos celebrada en paralelo a la de la Asociación Económica Asia Pacífico (Apec), donde indicó que era necesario erradicar la ignorancia respecto a la Inteligencia Artificial y empujar dicha tecnología a más descubrimientos.
Según el sitio web especializado The Information, algunos empleados de OpenAI creen que el discurso de Altman se refería a una innovación para desarrollar modelos de inteligencia artificial mucho más potentes, lo que suscitó la preocupación de algunos programadores, por el hecho de que la empresa no dispusiera de las medidas de seguridad necesarias para comercializar modelos de inteligencia artificial tan avanzados.
Sam Altman was possibly fired from OpenAI due to a massive breakthrough dubbed Q* (Q-learning).
Q* is a precursor to AGI.
Most people (incl. AI experts) have no idea just how powerful AGI will be.
Here's Sam Altman discussing what most AI experts get wrong about AGI: pic.twitter.com/jlHPeAjyxk
— Engr. Ishola (@engineer_ishola) November 23, 2023
Proyecto Q*
Asimismo, se especula que tales medidas son parte del proyecto llamado Q* (Q-Star), el cual presumen que podría ser un gran avance en la búsqueda de la superinteligencia que supera a la humana.
Aunque no se sabe con precisión cuáles son los avances que desarrolló dicha AI, se especula que podrían enfocarse en realizar operaciones matemáticas al nivel de los estudiantes de primaria, pues a diferencia de una calculadora que puede resolver un número limitado de operaciones; sin embargo, la IA podría generalizar, aprender y comprender. Ahí está lo peligroso.
@carlos_name Cuidado si compras este #robot #inteligenciaartificial #curiosidades
Las matemáticas son la frontera
Este punto es significativo porque los investigadores de AI consideran que las matemáticas son la frontera del desarrollo de la Inteligencia Artificial generativa. Este avance implica que la IA tendría una mayor capacidad de razonamiento que se asemejaría a la inteligencia humana.
Según Reuters, la misiva que los programadores enviaron al consejo de OpenAI, señaló las proezas de la IA y su peligro potencial; aunque el medio especializado The Verge aseguró que la carta no llegó al consejo y que no tuvo que nada ver en el despido de Altman, y su posterior recontratación.
Vale mencionar que Reuters afirmó no tener en su poder una copia de la carta, aunque indicó que sí tuvo que ver con los errores que cometió Altman, los cuales lo condujeron a su despido e incluso que por ética, los programadores habían pedido la destrucción del proyecto en pro de la humanidad.