En mayo de 2020, cuando los bloqueos globales alcanzaron su punto máximo, Deep Ganguli, entonces en el centro de inteligencia artificial de Stanford, sintió una creciente inquietud. La presentación por parte de OpenAI de GPT-3, un modelo de IA exponencialmente más avanzado que cualquier otro anterior, no fue solo un salto adelante; era una señal de aceleración implacable. Ganguli consideró las implicaciones sociales y reconoció que el ritmo del cambio estaba superando la preparación. Quería dirigir esta evolución, no simplemente observarla.
Esto lo llevó a Anthropic, una startup fundada por ex empleados de OpenAI que compartían sus inquietudes. Los fundadores de Anthropic creían que no se estaba dando suficiente prioridad a la seguridad de la IA y querían construir una empresa que pusiera a la humanidad en primer lugar. Jack Clark, ex director de políticas de OpenAI, contrató a Ganguli para liderar un equipo pequeño y crítico: el grupo de impacto social. ¿Su misión? Garantizar que la IA “interactúe positivamente con las personas”, desde las interacciones cotidianas hasta la política global.
El núcleo de la evaluación de riesgos de la IA
Durante cuatro años, Ganguli formó un equipo de solo nueve personas dentro de la fuerza laboral de 2000 personas de Anthropic. Este grupo aborda las cuestiones más espinosas que plantea la IA: sus consecuencias económicas, su poder de persuasión, su potencial de interferencia electoral y sus sesgos inherentes. Han publicado investigaciones sobre estos temas, dando forma a la imagen de Anthropic como el gigante de la IA “seguro”.
Sin embargo, su influencia depende de un equilibrio precario. En una industria donde dominan la velocidad y las ganancias, un pequeño equipo dedicado al impacto humano a largo plazo puede no tener libertad indefinida. La pregunta es si los ejecutivos, impulsados en última instancia por objetivos financieros, escucharán las advertencias que podrían desacelerar el crecimiento o revelar vulnerabilidades.
Transparencia como estrategia
El enfoque del equipo de impacto social es simple: “Vamos a decir la verdad”. A diferencia de otras empresas de inteligencia artificial que se centran en prevenir daños obvios como estafas o uso de armas, el equipo de Ganguli busca “verdades incómodas” que las corporaciones tienen pocos incentivos para publicar. Comparten sus hallazgos interna y externamente, creyendo que la transparencia genera confianza en el público y los formuladores de políticas.
Esto incluye admitir con franqueza las deficiencias. El equipo discutió abiertamente cómo se explotaron los sistemas de Anthropic para crear contenido explícito y spam, y publicó la investigación para ayudar a otras empresas a abordar debilidades similares. Esta voluntad de exponer los fallos, en lugar de ocultarlos, es poco común en una industria que a menudo se define por el secretismo.
Construyendo una cultura colaborativa
El equipo fomenta un entorno de colaboración y trabaja en estrecha colaboración con otros departamentos. Su trabajo se basa en datos, pero también enfatizan la comunicación abierta. Incluso tienen un canal de Slack llamado Clio Alerts, donde se comparten alertas automatizadas sobre el uso indebido de la IA y los miembros colaboran casualmente en el gimnasio de la oficina o en excursiones de un día a la playa.
Esta camaradería es intencional. Al construir conexiones personales profundas, el equipo crea un espacio donde las opiniones disidentes son bienvenidas y los hallazgos incómodos se discuten abiertamente. El equipo también utiliza una metáfora alegre del “cono de incertidumbre”, reforzada por un cono de tráfico real con ojos saltones, para reconocer los límites de su comprensión.
Seguimiento del uso de la IA en el mundo real: el sistema Clio
Uno de los mayores logros del equipo es Clio, el sistema de seguimiento del uso de IA de Anthropic. Diseñado para monitorear cómo las personas interactúan con Claude, el chatbot de Anthropic, Clio se asemeja a una nube de palabras en tiempo real que muestra temas de actualidad, desde escribir guiones hasta resolver problemas matemáticos. El sistema ayuda a identificar usos previstos y no previstos, incluidos los dañinos.
La transparencia de Clio es deliberada. Anthropic comparte los datos con equipos internos y publica los hallazgos, incluso si pintan a la empresa de manera negativa. Este enfoque ha dado lugar a mejoras en el seguimiento de la seguridad, incluida una mejor detección del uso indebido coordinado y la identificación proactiva de riesgos emergentes.
El desafío de la influencia a largo plazo
A pesar de su compromiso con la transparencia, el equipo opera dentro de la estructura corporativa de Anthropic. El acceso a los espacios de trabajo está restringido y los resultados de la investigación requieren aprobación. Esto crea una tensión entre el deseo de apertura del equipo y la necesidad de control de la empresa.
Sin embargo, los miembros del equipo siguen siendo optimistas. Creen que el liderazgo de Anthropic realmente valora su trabajo, incluso si la comunicación directa con los ejecutivos es poco frecuente. El éxito del equipo depende de mantener esta confianza y continuar brindando conocimientos basados en datos que den forma a la estrategia a largo plazo de Anthropic.
En última instancia, el equipo de impacto social representa un experimento único: un pequeño grupo encargado de afrontar las consecuencias humanas de una de las tecnologías más disruptivas del mundo. Su futuro depende de si Anthropic puede equilibrar sus ambiciones de crecimiento con su compromiso con el desarrollo responsable de la IA.
