Tolerancia de Error y Predicción - Machine Intelligence Research Institute (MIRI)

Tolerancia de Error

Una de sus investigaciones que más me llamó la atención fue la de corregibilidad. Esto es el hecho de que podamos hacerle entender a un IA avanzado que tiene que entender que hay que modificar y ajustar sus objetivos y metas.

En este paper discuten que se consideran una IA corregible y como lograr la corregibilidad con diferentes estrategias. Por ejemplo hablan de el “Problema del Apagado”, hipotéticamente se discute que si se le da un botón de apagado a la IA para “corregir” este agente sería capaz de discutir o razonar a su dueño que no es necesario corregirlo, manipulandolo y no logrando la corrección del IA, este podría decir que hay un gran incentivo en no apagarlo porque podría lograr un mejor resultado de X utilidad o valor. Un IA simple se dejaría apagar pero uno más autónomo y complejo llegaría hasta la prevención física para no apagarse y eso sería fatal si llegara hasta ese punto. Y por último se da un modelo de apagado como estándar para una maquina IA considerada “corregible”.

Predicción


Otro estudio bien importante tiene que ver con nuestra capacidad de que tanto podemos predecir o no predecir sobre el futuro de la IA.

En este tipo de investigaciones MIRI ha descubierto que más veces que no los expertos y no expertos se han equivocado sobre la IA en los próximos 15 a 25 años y que normalmente las predicciones hechas por expertos se contradicen, junto con una base de datos de más de 95 predicciones que se han hecho sobre la IA.

Para terminar de asustarnos, MIRI ha puesto un paper muy interesante llamado “Intelligence Explosion Microeconomics”, que habla sobre la necesidad de tener investigadores con experiencia en matemáticas económicas, experiencia en estadística predictiva y aprendizaje de máquinas. Esto lo justifican pensando en una premisa simple: “¿Qué pasa si creamos una máquina que puede crear una mejor versión de sí misma y está mejor que ella misma?”.

Esto es muy importante ya ha esta curva inteligencia sería conocida como la explosión de la inteligente, lo cual ellos creen que sería “el evento más importante en la historia de la tierra, ósea crear “vida inteligente”, el evento más importante del futuro de nuestro universo”.


Previous
Next Post »
0 Komentar