Fecha actual Dom Nov 24, 2024 1:06 am

Todos los horarios son UTC - 3 horas




Nuevo tema Responder al tema  [ 3 mensajes ] 
Autor Mensaje
NotaPublicado: Lun Nov 26, 2012 1:20 pm 
Sysadmin
Avatar de Usuario

Registrado: Jue Jul 29, 2010 6:55 pm
Mensajes: 3166
Citar:
Cambridge abrirá un centro que estudie los peligros en el desarrolllo de la IA

Bajo el título de Centre for the Study of Existential Risk, la Universidad de Cambridge tiene pensado abrir un centro que, entre otros, estudie los riesgos sobre la evolución de la Inteligencia Artificial en la humanidad. Un espacio donde se estudiará la posibilidad de que en un momento del futuro, la tecnología pueda tener el potencial de amenazar nuestra propia existencia.

Algo así como el estudio de “terminators”, donde destacados académicos pasarán a estudiar la amenaza que podrían plantear los robots a la humanidad. Según recoge el diario Daily Mail, cuatro serán las materias a estudiar, recogidas como las mayores amenazas para la especie humana: la Inteligencia Artificial, el cambio climático, una guerra nuclear y el uso de la biotecnología.

Imagen

La idea de que las máquinas podrían un día hacerse cargo de la humanidad ha aparecido en muchos de los clásicos de la ciencia ficción, siendo probablemente Terminator la película más famosa sobre esta temática.

Mucho antes, en 1965, John Good había escrito un artículo en la revista New Scientist bajo el título de Speculations donde hablaba una primera máquina ultra-inteligente. Good es un matemático de la Universidad de Cambridge y criptógrafo, un científico informático amigo de Alan Turing que escribía sobre un futuro próximo donde se construiría una primera máquina ultra-inteligente, un equipo que sería el último invento que la humanidad tendría que realizar, ya que llevaría con ella la “explosión de la inteligencia”.

Según contaba el científico, quién también llegó a asesorar a Kubrick para la película 2001: a Space Odyssey:
Citar:
La supervivencia del hombre depende de la construcción de esta máquina.


Huw Price, profesor de filosofía y uno de los fundadores del centro, opina que de llegar ese momento, la Inteligencia Artificial entraría en una fase peligrosa que podría traer consecuencias muy graves. Según el profesor:

Citar:
No podríamos saber qué tipo de garantías tendríamos. Tenemos que tomarnos en serio la posibilidad de que podría haber un momento de “caja de Pandora” con la Inteligencia Artificial que, si la perdemos, podría ser desastroso. No quiero decir que podamos predecir algo con certeza, nadie está actualmente en condiciones de hacerlo, pero ese es el punto. Con tanto en juego, tenemos que hacer un trabajo aún mejor en la comprensión de los riesgos de las tecnologías potencialmente catastróficas.

La filosofía básica es que debemos tomar en serio el hecho de que estamos llegando al punto donde nuestras tecnologías tienen el potencial de amenazar nuestra propia existencia de un modo que hasta ahora no era posible.


Imagen

La idea es que el centro desarrolle todas las posibilidades adelantándose a ese futuro. Según los investigadores, no existe mejor lugar que la Universidad de Cambridge, una de las universidades más antiguas en el mundo sobre el estudio científico, para dar valor a estas cuestiones. Según Price:

Citar:
Cambridge ha celebrado recientemente su 800 aniversario… nuestro objetivo es reducir el riesgo de que no pueda estar aquí para celebrar su milenio.


Código:
http://alt1040.com/2012/11/cambridge-centro-inteligencia-artificial

_________________
Imagen


Imagen
Imagen
Imagen

Imagen
Imagen
"Pedes in terra ad sidera visus"
Imagen
Imagen
Imagen


Arriba
 Perfil  
 
NotaPublicado: Lun Nov 26, 2012 4:16 pm 
Avatar de Usuario

Registrado: Mié Ago 04, 2010 8:54 pm
Mensajes: 1186
Cual sera la extincion del hombre: la propuesta por James Cameron con Terminator o la de los Hermanos Watchosky y la Matrix? (?) El propio hombre sera el causante de su extincion

_________________
Imagen
estoy trabajando en una nueva firma...


Arriba
 Perfil  
 
NotaPublicado: Lun Nov 26, 2012 5:35 pm 
Avatar de Usuario

Registrado: Vie Ago 06, 2010 1:22 pm
Mensajes: 1507
Ubicación: República Argentina
JA! Tenía razón A* es un peligro! Y mucho ojito con los procesos Markov.

(?????????)

_________________
Imagen


Arriba
 Perfil  
 
Mostrar mensajes previos:  Ordenar por  
Nuevo tema Responder al tema  [ 3 mensajes ] 

Todos los horarios son UTC - 3 horas


¿Quién está conectado?

Usuarios navegando por este Foro: No hay usuarios registrados visitando el Foro y 33 invitados


No podes abrir nuevos temas en este Foro
No podes responder a temas en este Foro
No podes editar tus mensajes en este Foro
No podes borrar tus mensajes en este Foro

Buscar:
cron
Powered by phpBB® Forum Software © phpBB Group
Traducción al Español Argentino por nextgen
en colaboración con phpBB España
[ Time : 0.051s | 17 Queries | GZIP : On | Load : 0.53 ]