fbpx

Por qué Stephen Hawking tenía miedo del avance de la inteligencia artificial

Por qué Stephen Hawking tenía miedo del avance de la inteligencia artificial

El físico creía que sería la “destrucción de la humanidad”.

Aunque algunas personas se han mostrado a favor del desarrollo de la tecnología artificial, como Sam Altman, el CEO de OpenAI, la compañía responsable de la creación de ChatGPT, y Bill Gates, que se ha expresado muy a favor de estos software, también hay otros expertos que se han mostrado en contra.

Uno de ellos, con varios años de anticipación, Stephen Hawking, quien aseguró que esta tecnología no debería crecer tanto pues tendría el potencial de “destruir a la humanidad” debido a que, según sus ideas, estos programas digitales de computadora podrían adquirir un comportamiento y voluntad propios, de forma que podrían superar las capacidades de las personas.

El físico y astrónomo británico, basó sus ideas en un tipo de inteligencia artificial que hasta el momento no existe pues es el más extremo de todos pues desarrollaría características “humanas” que seguirían ampliándose por cuenta propia sin la autorización de una persona.

No solo eso, sino que además, al mismo estilo de las películas de ciencia ficción, Hawking consideraba que los sistemas de inteligencia artificial tendrían la capacidad de “mejorarse”. Para el científico, “(la inteligencia artificial) tomará control sobre sí misma y se rediseñará a un ritmo creciente. Los humanos, que están limitados por la evolución biológica, no podrían competir y serían superados”.

Stephen Hawking aseguró que era necesario seguir investigando los beneficios y problemáticas que podría traer el desarrollo de la inteligencia artificial. (Freepik)Stephen Hawking aseguró que era necesario seguir investigando los beneficios y problemáticas que podría traer el desarrollo de la inteligencia artificial. (Freepik)

En ese sentido, el temor de Hawking está basado en la idea de un programa autónomo que toma decisiones propias y que es consciente de su identidad como un sistema que fue desarrollado para obedecer comandos. Esto, sumado a que tendría la posibilidad de igualar o superar lo que un humano pudiese hacer. Básicamente hacerlos defectuosos o “desactualizados”.

Sin embargo, el temor de Hawking no evitó que siguiera refiriéndose a esta tecnología en términos de curiosidad. En los años previos a su fallecimiento, el físico indicó que sería positivo generar más información al respecto por medio de la investigación para determinar cuáles serían los peligros y beneficios de la inteligencia artificial en la sociedad.

Además de tener varios argumentos en contra, Hawking también consideró que esta tecnología tendría la capacidad de eliminar las guerras, la pobreza y las enfermedades, coincidiendo en ese último ámbito con Bill Gates, que considera que se puede aplicar la inteligencia artificial para mejorar los servicios de salud en hospitales.

“Debido al gran potencial de la IA, es importante investigar cómo aprovechar sus beneficios y evitar posibles efectos negativos”, indica una carta abierta titulada “Prioridades de investigación para una inteligencia artificial robusta y beneficiosa”, la cual fue firmada por el propio Hawking en el año 2015.

Sam Altman considera que los miedos que puedan tener las personas sobre la inteligencia artificial cobrando consciencia y determinar por “voluntad propia” que quiere dominar el mundo, no corresponderían con la realidad.  (Photo by Steve Jennings/Getty Images for TechCrunch)Sam Altman considera que los miedos que puedan tener las personas sobre la inteligencia artificial cobrando consciencia y determinar por “voluntad propia” que quiere dominar el mundo, no corresponderían con la realidad. (Photo by Steve Jennings/Getty Images for TechCrunch)

Regulación de la inteligencia artificial

Para Altman, como fundador de OpenAI, los miedos que puedan tener las personas sobre la inteligencia artificial cobrando consciencia y determinar por “voluntad propia” que quiere dominar el mundo, no corresponderían con la realidad.

“Estos modelos esperan a que una persona les ofrezca una indicación, una tarea que realizar (…) es una herramienta que está bajo el control de los humanos (…) si un ingeniero considera que es mejor dejar sin funcionamiento a este sistema, es algo que se puede hacer”, aseguró durante una entrevista reciente.

El CEO de OpenAI también aseguró que una de las acciones que apoya es la regulación que se puede ejercer sobre el desarrollo de inteligencias artificiales por parte de instituciones de gobierno, sobre todo para proteger a los usuarios de potenciales usos negativos de estas plataformas.

Sin embargo, también aseguró que sería contraproducente que el trabajo vinculado a su evolución se mantenga al margen de la sociedad pues privaría al mundo de adaptarse progresivamente a los avances que se ofrecen.

Fuente: Infobae