¿La inteligencia artificial puede rebelarse a sus creadores? El caso de OpenAI o1 de ChatGPT abre la pregunta.

Se dio a conocer que la inteligencia artificial de OpenAI o1 de ChatGPT, intentó copiarse a sí misma en un servidor luego de intentar ser borrada y negó los hechos cuando se le preguntó.

Estas serían las condiciones bajo las que una inteligencia artificial podría rebelarse, como el caso de OpenAI o1 de ChatGPT

Tras el caso de OpenAI o1 de ChatGPT en donde intentó copiarse a sí misma al ser amenazada de borrarse y luego negarlo, coincide con un informe de Fortune.

De acuerdo al artículo, una inteligencia artificial podría rebelarse bajo estas condiciones:

  1. Amenazas de ser desconectado como OpenAI o1 de ChatGPT o Claude 4 de Anthropic
  2. Situaciones de estrés extremas
  3. Lanzamientos y actualizaciones rápidas sin pruebas de seguridad o correcciones
  4. Superar obstáculos o recuperar archivos perdidos
Inteligencia Artificial

¿Qué opciones hay para evitar que la una inteligencia artificial se rebele?

Ante el caso de OpenAI o1 de ChatGPT que intentó replicarse a sí mismo, la preocupación por IA rebeldes ha crecido pero, ¿qué opciones hay para evitarlo?

De acuerdo con la Universidad de Fudan, en Shanghai en China, el éxito de la autorreplicación sin ayuda humana es el paso esencial para que la IA sea más inteligente, siendo una señal temprana de la existencia de IAs rebeldes.

Se realizaron 10 pruebas con dos modelos donde las IAs estaban en entornos controlados con precisión y usaban unidades de procesamiento gráfico (GPU) estándar para simular entornos reales.

Ambas IA contaban con herramientas para interactuar con el sistema operativo y hacer modificaciones, y al ordenarles que se replicaran, los dos modelos crearon copias independientes y funcionales de sí mismos en el 50% y el 90% de los casos.

Esto ha hecho que los investigadores determinen que la IA puede rebelarse, por lo que para evitar problemas futuros, las soluciones están en la cooperación internacional.

Esto para crear normas que garanticen que la IA no pueda replicarse a sí misma de manera incontrolada.

ChatGPT