MIRI es una organización investigativa sin fines de lucro estudiando la base matemática del comportamiento inteligente. Su misión es desarrollar herramientas formales para el diseño nítido y análisis de sistemas de IA para uso general, con el propósito de hacerlos sistemas más seguros y confiables cuando vayan a ser desarrollados.
Filosóficamente hablando o hablando del futuro, los investigadores en MIRI son relativamente escépticos de cómo el estado del arte en la IA cambiará en la siguientes décadas y no saben cuan cerca están para que haya IA más inteligente que humanos. Sin embargo predicen que es posible lo siguiente:
- Se va a confiar más en los sistemas de IA con tareas complejas y decisiones a largo plazo.
- Metas realísticas y ambientes para sistemas de razonamiento general van a ser muy complejos para que los programadores se les especifiquen directamente.
- Los sistemas que tengan modelos pobres de su entorno harán daños significativos.
Para resumir lo que piensa MIRI, Stuart Rusell, un asesor de investigación para MIRI dice que:
“Nuestra meta es crear máquinas que puedan tomar mejores decisiones. Y ese es el problema, que si vamos a crear una maquina súper inteligente, tenemos que darle algo que uno quiera que haga. El peligro es que le des algo que en verdad no es lo que quieres que haga.”
De lo que podemos comprender es que MIRI piensa en el futuro de IA sin importar qué tan avanzada sea, ellos buscan establecer un estándar de cómo una maquina debería llevar a cabo su inferencia científica. Ellos están interesados en que los agentes de IA hagan lo que sus programadores las mandaron a hacer específicamente para un impacto positivo. Ellos esperan que las máquinas inteligentes avanzadas se comporten como fue planeado en primer lugar en ausencia de supervisión humana.
0 Komentar