@ANBOLIVIA: ¿CÓMO PODRÍA LA SUPERINTELIGENCIA ARTIFICIAL ACABAR CON LA HUMANIDAD EN UN SEGUNDO?

@ANBOLIVIA TV

ooooo00000 ---------- LO ÚLTIMO ---------- 00000ooooo

BOLIVIA GASTÓ CASI BS 500 MILLONES EN TRES COMICIOS Y NO HA MEJORADO LA JUSTICIA, ASEGURA EXCONSTITUYENTE

PIDE VOLVER A LA ELECCIÓN CONGRESAL LA PAZ, BOLIVIA (ANB / Erbol).- Bolivia habría gastado aproximadamente Bs 500 millones en las tres ele...

jueves, 26 de marzo de 2015

¿CÓMO PODRÍA LA SUPERINTELIGENCIA ARTIFICIAL ACABAR CON LA HUMANIDAD EN UN SEGUNDO?

¿Las máquinas ya superan al ser humano?
LA PAZ, BOLIVIA (ANB / fuente: actualidad.rt.com).- La creación de la superinteligencia artificial acarrea el grave problema de que las máquinas puedan escapar del control humano y actuar con 'voluntad' propia. De ser así, podrían acabar con la humanidad en un segundo.


Esta opinión sobre el peligro que acarrea la inteligencia artificial corresponde al matemático y filósofo sueco Nick Bostorm, director del Instituto para el Futuro de la Humanidad, de la Universidad de Oxford, y autor del famoso libro 'La superinteligencia: caminos, peligros, estrategias'. En una entrevista a la revista 'Esquire' el filósofo explicó por qué, desde su punto de vista, no hay que alegrarse mucho de los avances en la investigación de la superinteligencia artificial.

Y no es único que piensa así. Últimamente se ha reavivado el tema de las consecuencias de la creación de la superinteligencia artificial y varios científicos, entre ellos Elon Musk y Stephen Hawking, se han pronunciado en contra de estos avances ya que en su opinión pueden representar una amenaza para la humanidad.

En la entrevista Nick Bostorm señala que en esferas como la logística, el reconocimiento automático del habla y la búsqueda de información, las máquinas ya superan al ser humano, pero "aún no disponen del razonamiento como tal" y la creación de la superinteligencia artificial es todavía una cuestión de tiempo.

Según mantiene el científico, la aparición de la superinteligencia artificial acarrea otro problema relacionado con su posible rechazo a seguir estando bajo el control de la humanidad.

Nick Bostorm asegura que, a diferencia de los típicos guiones de las películas de Hollywood, en los que las máquinas con la superinteligencia artificial se ven derrotadas por seres humanos con habilidades especiales, en la vida real esto sería poco probable. Las máquinas podrían acabar con la humanidad en solo un segundo y "la Tierra se convertiría en un ordenador que se pasaría mil millones de años haciendo cálculos incomprensibles".

Dado que resulta imposible impedir que los estudios sobre la superinteligencia artificial continúen, Nick Bostorm cree que es necesario "centrarse en el trabajo que pueda reducir los riesgos que supone la superinteligencia artificial incontrolada antes de que sea creada". Para conseguirlo, se debe "fundar una comunidad profesional que una a personas de negocios, científicos e investigadores", una comunidad que "dirija también los estudios científicos en la dirección segura y elabore medios de control sobre sus resultados", señaló el famoso científico.



No hay comentarios:

Publicar un comentario

ANBOLIVIA te invita a ser el quinto poder, opina...con respeto

DEJA TU OPINIÓN EN:
TW: @ANBOLIVIA

TW: @ANBdigital

F: https://www.facebook.com/anboliviadigital

Related Posts Plugin for WordPress, Blogger...