¿Las
máquinas ya superan al ser humano?
LA PAZ, BOLIVIA (ANB / fuente:
actualidad.rt.com).- La creación de la
superinteligencia artificial acarrea el grave problema de que las máquinas
puedan escapar del control humano y actuar con 'voluntad' propia. De ser así,
podrían acabar con la humanidad en un segundo.
Esta
opinión sobre el peligro que acarrea la inteligencia artificial corresponde al
matemático y filósofo sueco Nick Bostorm, director del Instituto para el Futuro
de la Humanidad, de la Universidad de Oxford, y autor del famoso libro 'La
superinteligencia: caminos, peligros, estrategias'. En una entrevista a la revista
'Esquire' el filósofo explicó por qué, desde su punto de vista, no hay que
alegrarse mucho de los avances en la investigación de la superinteligencia
artificial.
Y no
es único que piensa así. Últimamente se ha reavivado el tema de las
consecuencias de la creación de la superinteligencia artificial y varios
científicos, entre ellos Elon Musk y Stephen Hawking, se han pronunciado en
contra de estos avances ya que en su opinión pueden representar una amenaza
para la humanidad.
En la
entrevista Nick Bostorm señala que en esferas como la logística, el
reconocimiento automático del habla y la búsqueda de información, las máquinas
ya superan al ser humano, pero "aún no disponen del razonamiento como
tal" y la creación de la superinteligencia artificial es todavía una
cuestión de tiempo.
Según
mantiene el científico, la aparición de la superinteligencia artificial acarrea
otro problema relacionado con su posible rechazo a seguir estando bajo el
control de la humanidad.
Nick
Bostorm asegura que, a diferencia de los típicos guiones de las películas de
Hollywood, en los que las máquinas con la superinteligencia artificial se ven
derrotadas por seres humanos con habilidades especiales, en la vida real esto
sería poco probable. Las máquinas podrían acabar con la humanidad en solo un
segundo y "la Tierra se convertiría en un ordenador que se pasaría mil
millones de años haciendo cálculos incomprensibles".
Dado
que resulta imposible impedir que los estudios sobre la superinteligencia
artificial continúen, Nick Bostorm cree que es necesario "centrarse en el
trabajo que pueda reducir los riesgos que supone la superinteligencia
artificial incontrolada antes de que sea creada". Para conseguirlo, se
debe "fundar una comunidad profesional que una a personas de negocios, científicos
e investigadores", una comunidad que "dirija también los estudios
científicos en la dirección segura y elabore medios de control sobre sus
resultados", señaló el famoso científico.
No hay comentarios:
Publicar un comentario
ANBOLIVIA te invita a ser el quinto poder, opina...con respeto
DEJA TU OPINIÓN EN:
TW: @ANBOLIVIA
TW: @ANBdigital
F: https://www.facebook.com/anboliviadigital