4 Bahaya Utama Dari Kecerdasan Buatan

Senat California minggu lalu mengajukan RUU yang memaksa Amazon untuk mengungkapkan rincian di balik algoritma pelacakan produktivitas yang digunakan di gudangnya. Sementara itu, Facebook minggu ini menghadapi kritik atas laporan Wall Street Journal yang mengetahui bahwa feed Instagram-nya membuat beberapa gadis remaja merasa lebih buruk tentang diri mereka sendiri.

Perkembangan ini tidak selalu merupakan reaksi terhadap teknologi besar, seperti halnya algoritmanya, yang menggunakan kecerdasan buatan (AI) untuk mengadaptasi kinerja bagi pengguna individu atau karyawan.

Dalam sebuah wawancara, pakar AI Kai-Fu Lee yang bekerja sebagai eksekutif di Google, Apple, dan Microsoft menjelaskan empat bahaya utama dari perkembangan teknologi kecerdasan buatan (AI) yaitu eksternalitas, risiko data pribadi, ketidakmampuan untuk menjelaskan pilihan konsekuensial, dan peperangan.

“Satu-satunya bahaya terbesar adalah senjata otonom,” katanya.

“Saat itulah AI dapat dilatih untuk membunuh, dan lebih khusus lagi dilatih untuk membunuh,” tambah Lee yang juga menulis buku terbaru berjudul “AI 2041: Sepuluh Visi untuk Masa Depan Kita.”

Dilansir dari finance.yahoo.com, Larangan senjata otonom telah mendapatkan dukungan dari 30 negara, meskipun sebuah laporan mendalam yang ditugaskan oleh Kongres menyarankan Amerika untuk menentang larangan tersebut, karena hal itu dapat mencegah negara tersebut menggunakan senjata yang sudah dimilikinya.

Pada tahun 2015, tokoh-tokoh terkemuka di bidang teknologi seperti CEO Tesla Elon Musk dan salah satu pendiri Apple Steve Wozniak, serta ribuan peneliti AI, menandatangani surat terbuka yang menyerukan larangan senjata semacam itu.

Lee juga mengatakan senjata otonom akan mengubah peperangan karena keterjangkauan dan ketepatannya akan memudahkan untuk mendatangkan malapetaka dan hampir mustahil untuk mengidentifikasi siapa yang melakukan kejahatan.

“Saya pikir itu mengubah masa depan terorisme, karena teroris tidak lagi berpotensi kehilangan nyawa mereka untuk melakukan sesuatu yang buruk,” katanya.

“Ini mengubah masa depan peperangan, Kita perlu mencari cara untuk melarang atau mengaturnya.” tambahnya.

Risiko signifikan kedua yang ditimbulkan oleh kecerdasan buatan adalah konsekuensi negatif yang tidak diinginkan yang dihasilkan ketika AI terpaku pada satu tujuan tetapi mengesampingkan masalah lain.

“Jadi, ketika YouTube terus mengirimi kami video yang kemungkinan besar akan kami klik, itu tidak hanya sekedar kebetulan, hal seperti ini berpotensi mengirimkan saya pandangan yang sangat negatif atau pandangan yang sangat sepihak yang mungkin membentuk pemikiran saya,” Imbuhnya.

Kai-Fu Lee telah melihat pengembangan AI selama beberapa dekade, sejak dia membantu mengembangkan pengenalan suara dan teknologi bicara otomatis sebagai mahasiswa doktoral di Universitas Carnegie Mellon.

Sejak tahun 2009, ia menjabat sebagai CEO Sinovation Ventures, sebuah perusahaan modal ventura yang berfokus pada teknologi di Tiongkok dengan aset yang dikelola lebih dari 2,5 miliar dolar.

Berbicara kepada Yahoo Finance, Lee mengutip serangkaian bahaya AI terakhir di sekitar data pribadi yang rentan dan ketidakmampuan untuk menjelaskan keputusan konsekuensial yang dibuat oleh teknologi.

“Dapatkah AI menjelaskan kepada kita mengapa ia membuat keputusan yang dibuatnya?” dia berkata.

“Dalam empat hal utama seperti mengemudikan kendaraan otonom, masalah troli, pengambilan keputusan medis, operasi,” imbuhnya.(ra/hh)