Pada bulan Mei 2020, ketika lockdown global mencapai puncaknya, Deep Ganguli, yang saat itu bekerja di pusat AI Stanford, merasakan kegelisahan yang semakin besar. Peluncuran GPT-3 oleh OpenAI—model AI yang secara eksponensial lebih maju dibandingkan sebelumnya—bukan sekadar sebuah lompatan maju; itu adalah tanda akselerasi yang tiada henti. Ganguli mempertimbangkan dampak sosialnya dan menyadari bahwa laju perubahan jauh melampaui kesiapan. Dia ingin mengarahkan evolusi ini, bukan sekadar mengamatinya.
Hal ini membawanya ke Anthropic, sebuah startup yang didirikan oleh mantan karyawan OpenAI yang menyampaikan keprihatinannya. Para pendiri Anthropic percaya bahwa keselamatan AI belum cukup diprioritaskan, dan mereka ingin membangun perusahaan yang mengutamakan kemanusiaan. Jack Clark, mantan direktur kebijakan OpenAI, mempekerjakan Ganguli untuk memimpin tim kecil yang penting: kelompok dampak sosial. Misi mereka? Pastikan AI “berinteraksi secara positif dengan manusia,” mulai dari interaksi sehari-hari hingga politik global.
Inti Penilaian Risiko AI
Selama empat tahun, Ganguli membangun tim yang hanya terdiri dari sembilan orang dalam 2.000 tenaga kerja Anthropic. Kelompok ini menjawab pertanyaan-pertanyaan paling sulit yang diajukan oleh AI: konsekuensi ekonomi, kekuatan persuasif, potensi campur tangan dalam pemilu, dan bias yang melekat. Mereka telah menerbitkan penelitian tentang topik ini, yang membentuk citra Anthropic sebagai raksasa AI yang “aman”.
Namun, pengaruhnya bergantung pada keseimbangan yang berbahaya. Dalam industri yang didominasi oleh kecepatan dan keuntungan, sebuah tim kecil yang berdedikasi pada dampak jangka panjang terhadap manusia mungkin tidak memiliki kebebasan tanpa batas. Pertanyaannya adalah apakah para eksekutif, yang pada dasarnya didorong oleh tujuan finansial, akan mendengarkan peringatan yang dapat memperlambat pertumbuhan atau mengungkap kerentanan.
Transparansi sebagai Strategi
Pendekatan tim dampak sosial sederhana saja: “Kami akan mengatakan yang sebenarnya.” Berbeda dengan perusahaan AI lain yang berfokus pada pencegahan dampak buruk seperti penipuan atau persenjataan, tim Ganguli mencari “kebenaran yang tidak menyenangkan” yang tidak banyak dipublikasikan oleh perusahaan. Mereka membagikan temuan mereka secara internal dan eksternal, dengan keyakinan bahwa transparansi akan membangun kepercayaan masyarakat dan pembuat kebijakan.
Termasuk mengakui kekurangan secara terus terang. Tim tersebut secara terbuka membahas bagaimana sistem Anthropic dieksploitasi untuk membuat konten eksplisit dan spam, serta menerbitkan penelitian untuk membantu perusahaan lain mengatasi kelemahan serupa. Kesediaan untuk mengungkap kegagalan, dibandingkan menyembunyikannya, jarang terjadi dalam industri yang sering kali ditentukan oleh kerahasiaan.
Membangun Budaya Kolaboratif
Tim memupuk lingkungan kolaboratif, bekerja sama dengan departemen lain. Pekerjaan mereka didorong oleh data, namun mereka juga menekankan komunikasi terbuka. Mereka bahkan memiliki saluran Slack bernama Clio Alerts, tempat bendera otomatis tentang penyalahgunaan AI dibagikan, dan anggotanya dengan santai berkolaborasi di gym kantor atau dalam perjalanan sehari ke pantai.
Persahabatan ini disengaja. Dengan membangun hubungan pribadi yang mendalam, tim menciptakan ruang di mana perbedaan pendapat diterima, dan temuan-temuan yang tidak nyaman didiskusikan secara terbuka. Tim juga menggunakan metafora “kerucut ketidakpastian” yang ringan—diperkuat dengan kerucut lalu lintas yang nyata dan bermata tajam—untuk mengakui keterbatasan pemahaman mereka.
Melacak Penggunaan AI di Dunia Nyata: Sistem Clio
Salah satu pencapaian terbesar tim adalah Clio, sistem pelacakan penggunaan AI Anthropic. Dirancang untuk memantau bagaimana orang berinteraksi dengan Claude, chatbot Anthropic, Clio menyerupai awan kata real-time yang menampilkan topik yang sedang tren, mulai dari menulis skrip hingga menyelesaikan soal matematika. Sistem ini membantu mengidentifikasi penggunaan yang disengaja dan tidak disengaja, termasuk penggunaan yang merugikan.
Transparansi Clio disengaja. Anthropic membagikan datanya kepada tim internal dan mempublikasikan temuannya, meskipun temuan tersebut menggambarkan perusahaan secara negatif. Pendekatan ini telah menghasilkan perbaikan dalam pemantauan keselamatan, termasuk deteksi yang lebih baik terhadap penyalahgunaan terkoordinasi dan identifikasi proaktif terhadap risiko yang muncul.
Tantangan Pengaruh Jangka Panjang
Terlepas dari komitmen mereka terhadap transparansi, tim ini beroperasi dalam struktur perusahaan Anthropic. Akses ke ruang kerja dibatasi, dan temuan penelitian memerlukan persetujuan. Hal ini menciptakan ketegangan antara keinginan tim akan keterbukaan dan kebutuhan perusahaan akan kendali.
Namun, anggota tim tetap optimis. Mereka percaya bahwa kepemimpinan Anthropic benar-benar menghargai pekerjaan mereka, meskipun komunikasi langsung dengan para eksekutif jarang terjadi. Keberhasilan tim bergantung pada pemeliharaan kepercayaan ini dan terus memberikan wawasan berbasis data yang membentuk strategi jangka panjang Anthropic.
Pada akhirnya, tim dampak sosial mewakili sebuah eksperimen unik: sebuah kelompok kecil yang bertugas menavigasi dampak manusia dari salah satu teknologi paling disruptif di dunia. Masa depan mereka bergantung pada apakah Anthropic dapat menyeimbangkan ambisi pertumbuhannya dengan komitmennya terhadap pengembangan AI yang bertanggung jawab.



























