![]()
ROBOTS EN EQUIPO: Google DeepMind diseña las reglas para evitar la pérdida de control en la IA colaborativa
En un avance crucial para la seguridad tecnológica, Google DeepMind presentó el 12 de febrero de 2026 un nuevo marco ético y técnico denominado «Delegación Inteligente de IA». Este conjunto de protocolos busca regular cómo los agentes de inteligencia artificial interactúan entre sí y con humanos para evitar que la toma de decisiones se vuelva opaca o peligrosa.
Los pilares fundamentales de estas nuevas reglas son:
Responsabilidad y Rendición de Cuentas: DeepMind establece que delegar una tarea no significa diluir la responsabilidad. El nuevo marco exige que cada acción tomada por un robot o agente de IA sea trazable y auditable, permitiendo identificar claramente quién es el responsable (humano o máquina) en cada eslabón de la cadena de decisión.
Mecanismos de Reputación: Se introducen herramientas para que los «delegadores» puedan verificar el historial y las capacidades de los agentes antes de asignarles tareas. Esto ayuda a construir una confianza calibrada, basada en pruebas criptográficas y contratos inteligentes, en lugar de una confianza ciega.
Evitar la «Difusión de Responsabilidad»: Uno de los mayores riesgos detectados es que, en cadenas largas de robots trabajando juntos, los errores se dispersen y sea imposible culpar a alguien. Las nuevas reglas imponen límites técnicos que obligan a detener los procesos o pedir autorización humana si se detectan riesgos no previstos o ambigüedades.
Supervisión Humana Crítica: El marco insiste en que las personas deben mantener el control en los puntos clave para evitar la «despersonalización». Se busca prevenir que los humanos pierdan el contacto con las consecuencias de las decisiones automatizadas y que no se degraden sus propias habilidades de supervisión.
Auditoría con Criptografía: Para asegurar que los robots no actúen fuera de sus límites, DeepMind propone el uso de pruebas criptográficas que permiten auditar el cumplimiento de las tareas sin comprometer datos sensibles de los usuarios.
Este movimiento de Google DeepMind responde a la evolución de la IA, que ha pasado de ser un simple asistente a gestionar mercados y cadenas de suministro complejas. El objetivo final es garantizar que, a medida que los sistemas de IA se vuelven más autónomos y colaborativos, permanezcan siempre alineados con los intereses humanos y las normas sociales en este 2026.

