Miles Brundage, penasihat senior OpenAI untuk kesiapan AGI (alias kecerdasan buatan tingkat manusia), menyampaikan peringatan keras saat mengumumkan kepergiannya pada hari Rabu: tidak ada yang siap untuk kecerdasan umum buatan, termasuk OpenAI sendiri.
“Baik OpenAI maupun lab terdepan lainnya tidak siap [untuk AGI], dan dunia juga belum siap,” tulis Brundage, yang menghabiskan enam tahun membantu membentuk inisiatif keamanan AI perusahaan. “Untuk memperjelas, saya rasa ini bukanlah pernyataan yang kontroversial di kalangan pimpinan OpenAI, dan terutama, ini adalah pertanyaan yang berbeda dengan apakah perusahaan dan dunia sudah berada di jalur yang tepat untuk siap pada waktu yang tepat,” tambahnya.
Keluarnya dia menandai yang terbaru dari serangkaian kepergian profil tinggi dari tim keamanan OpenAI. Jan Leike, seorang peneliti terkemuka, keluar setelah menyatakan bahwa budaya dan proses keselamatan telah dikalahkan oleh produk yang mengilap. Salah satu pendiri Ilya Sutskever juga pergi untuk meluncurkan startup AI-nya sendiri yang berfokus pada pengembangan AGI yang aman.
Menurut theverge.com, Pembubaran tim AGI Readiness Brundage, yang terjadi hanya beberapa bulan setelah perusahaan membubarkan tim “Superalignment” yang didedikasikan untuk mitigasi risiko AI jangka panjang, menyoroti ketegangan yang meningkat antara misi awal OpenAI dan ambisi komersialnya. Perusahaan ini dilaporkan menghadapi tekanan untuk bertransisi dari perusahaan nirlaba menjadi perusahaan yang memberikan manfaat bagi masyarakat dalam waktu dua tahun atau berisiko mengembalikan dana dari putaran investasi senilai $6,6 miliar. Pergeseran ke arah komersialisasi ini telah lama menjadi perhatian Brundage, yang menyatakan keberatannya pada tahun 2019 ketika OpenAI pertama kali mendirikan divisi nirlaba.
Dalam menjelaskan kepergiannya, Brundage mengutip meningkatnya kendala pada penelitian dan kebebasan publikasi di perusahaan terkemuka tersebut. Ia menekankan perlunya suara independen dalam diskusi kebijakan AI, bebas dari bias industri dan konflik kepentingan. Setelah memberikan saran kepada pimpinan OpenAI tentang kesiapan internal, ia yakin bahwa ia sekarang dapat memberikan dampak yang lebih besar pada tata kelola AI global dari luar organisasi.
Kepergian ini juga dapat mencerminkan kesenjangan budaya yang lebih dalam di dalam OpenAI. Banyak peneliti yang bergabung untuk memajukan penelitian AI dan sekarang menemukan diri mereka berada dalam lingkungan yang semakin digerakkan oleh produk. Alokasi sumber daya internal telah menjadi titik nyala laporan menunjukkan bahwa tim Leike tidak diberi daya komputasi untuk penelitian keselamatan sebelum akhirnya dibubarkan.
Terlepas dari gesekan-gesekan ini, Brundage mencatat bahwa OpenAI telah menawarkan untuk mendukung pekerjaannya di masa depan dengan pendanaan, kredit API, dan akses model awal, tanpa pamrih.