ArgenSteel
http://argensteel.org/

Estudiarán los peligros de la inteligencia artificial
http://argensteel.org/viewtopic.php?f=21&t=26744
Página 1 de 1

Autor:  javier [ Lun Nov 26, 2012 1:20 pm ]
Asunto:  Estudiarán los peligros de la inteligencia artificial

Citar:
Cambridge abrirá un centro que estudie los peligros en el desarrolllo de la IA

Bajo el título de Centre for the Study of Existential Risk, la Universidad de Cambridge tiene pensado abrir un centro que, entre otros, estudie los riesgos sobre la evolución de la Inteligencia Artificial en la humanidad. Un espacio donde se estudiará la posibilidad de que en un momento del futuro, la tecnología pueda tener el potencial de amenazar nuestra propia existencia.

Algo así como el estudio de “terminators”, donde destacados académicos pasarán a estudiar la amenaza que podrían plantear los robots a la humanidad. Según recoge el diario Daily Mail, cuatro serán las materias a estudiar, recogidas como las mayores amenazas para la especie humana: la Inteligencia Artificial, el cambio climático, una guerra nuclear y el uso de la biotecnología.

Imagen

La idea de que las máquinas podrían un día hacerse cargo de la humanidad ha aparecido en muchos de los clásicos de la ciencia ficción, siendo probablemente Terminator la película más famosa sobre esta temática.

Mucho antes, en 1965, John Good había escrito un artículo en la revista New Scientist bajo el título de Speculations donde hablaba una primera máquina ultra-inteligente. Good es un matemático de la Universidad de Cambridge y criptógrafo, un científico informático amigo de Alan Turing que escribía sobre un futuro próximo donde se construiría una primera máquina ultra-inteligente, un equipo que sería el último invento que la humanidad tendría que realizar, ya que llevaría con ella la “explosión de la inteligencia”.

Según contaba el científico, quién también llegó a asesorar a Kubrick para la película 2001: a Space Odyssey:
Citar:
La supervivencia del hombre depende de la construcción de esta máquina.


Huw Price, profesor de filosofía y uno de los fundadores del centro, opina que de llegar ese momento, la Inteligencia Artificial entraría en una fase peligrosa que podría traer consecuencias muy graves. Según el profesor:

Citar:
No podríamos saber qué tipo de garantías tendríamos. Tenemos que tomarnos en serio la posibilidad de que podría haber un momento de “caja de Pandora” con la Inteligencia Artificial que, si la perdemos, podría ser desastroso. No quiero decir que podamos predecir algo con certeza, nadie está actualmente en condiciones de hacerlo, pero ese es el punto. Con tanto en juego, tenemos que hacer un trabajo aún mejor en la comprensión de los riesgos de las tecnologías potencialmente catastróficas.

La filosofía básica es que debemos tomar en serio el hecho de que estamos llegando al punto donde nuestras tecnologías tienen el potencial de amenazar nuestra propia existencia de un modo que hasta ahora no era posible.


Imagen

La idea es que el centro desarrolle todas las posibilidades adelantándose a ese futuro. Según los investigadores, no existe mejor lugar que la Universidad de Cambridge, una de las universidades más antiguas en el mundo sobre el estudio científico, para dar valor a estas cuestiones. Según Price:

Citar:
Cambridge ha celebrado recientemente su 800 aniversario… nuestro objetivo es reducir el riesgo de que no pueda estar aquí para celebrar su milenio.


Código:
http://alt1040.com/2012/11/cambridge-centro-inteligencia-artificial

Autor:  The Preacher [ Lun Nov 26, 2012 4:16 pm ]
Asunto:  Re: Estudiarán los peligros de la inteligencia artificial

Cual sera la extincion del hombre: la propuesta por James Cameron con Terminator o la de los Hermanos Watchosky y la Matrix? (?) El propio hombre sera el causante de su extincion

Autor:  Lian [ Lun Nov 26, 2012 5:35 pm ]
Asunto:  Re: Estudiarán los peligros de la inteligencia artificial

JA! Tenía razón A* es un peligro! Y mucho ojito con los procesos Markov.

(?????????)

Página 1 de 1 Todos los horarios son UTC - 3 horas
Powered by phpBB® Forum Software © phpBB Group
https://www.phpbb.com/