23 Prinsip ‘Pengelolaan AI Terbaik dalam Beberapa Dekade Mendatang’
keren989
- 0
MANILA, Filipina – Baru-baru ini, program komputer kecerdasan buatan (AI) yang disebut Libratus mengalahkan 4 profesional poker – sebuah “langkah penting” bagi AI, kata penciptanya, karena poker merupakan tantangan khusus bagi AI hingga saat itu.
Kemenangan AI dalam kompetisi poker – menyusul kemenangan dalam catur dan permainan papan “go” yang lebih kompleks – merupakan pengingat bahwa AI semakin pintar dari waktu ke waktu. Lalu bagaimana umat manusia memastikan bahwa ia tetap menjadi sekutu dan tidak menjadi nakal seperti Skynet di masa lalu Terminator seri?
Pertanyaan inilah yang didiskusikan oleh para ahli global pada konferensi Beneficial AI yang diadakan pada awal Januari di California. Konferensi ini, yang merupakan pertemuan kedua, berupaya mendengarkan para ahli dari berbagai latar belakang untuk menghasilkan serangkaian prinsip yang akan memandu pengembangan AI. Video di atas menampilkan salah satu diskusi yang diadakan pada konferensi tersebut, di mana para ahli mendiskusikan hasil potensial ketika AI mencapai kemampuan manusia.
Konferensi ini diselenggarakan oleh Future of Life (FOL) Institute – sebuah organisasi nirlaba yang didirikan oleh astronom Massachusetts Institute of Technology (MIT) Max Tegmark, salah satu pendiri Skype Jaan Tallinn, dan ilmuwan riset DeepMind Viktoriya Krakovna pada Maret 2014, menurut ke Orang Dalam Bisnis.
Institut, di situs webnyamenjelaskan proses dalam menyaring prinsip-prinsip AI: “Kami mengumpulkan semua laporan yang kami bisa dan menyusun daftar berbagai pendapat tentang apa yang harus dilakukan masyarakat untuk mengelola AI dengan sebaik-baiknya dalam beberapa dekade mendatang. Dari daftar ini kami mencari tumpang tindih dan penyederhanaan dan mencoba untuk menyaring sebanyak mungkin ke dalam serangkaian prinsip inti yang menyatakan beberapa konsensus.
Sebuah prinsip hanya dimasukkan dalam daftar akhir – disebut “23 Prinsip Asilomar AI” karena konferensi tersebut diadakan di ruang konferensi Asilomar di California – jika mendapat persetujuan dari 90% peserta konferensi.
Prinsip-prinsip tersebut telah didukung oleh hampir 2.300 orang, kata Gizmodo, termasuk 880 peneliti robotika dan AI. Anggota dewan penasihat ilmiah FOL, fisikawan Stephen Hawking dan CEO SpaceX Elon Musk juga mendukung prinsip-prinsip tersebut, yang tercantum di bawah ini:
Masalah penelitian
1. Objek penelitian: Tujuan penelitian AI seharusnya bukan untuk menciptakan kecerdasan yang tidak terarah, melainkan kecerdasan yang bermanfaat.
2. Pendanaan penelitian: Investasi pada AI harus disertai dengan pendanaan untuk penelitian guna memastikan manfaatnya, termasuk pertanyaan-pertanyaan sulit dalam ilmu komputer, ekonomi, hukum, etika, dan ilmu sosial, seperti:
- Bagaimana kita dapat membuat sistem AI di masa depan menjadi sangat tangguh, sehingga dapat melakukan apa yang kita inginkan tanpa mengalami kegagalan fungsi atau diretas?
- Bagaimana kita dapat meningkatkan kekayaan kita melalui otomatisasi sambil menjaga sumber daya dan tujuan masyarakat?
- Bagaimana kita dapat memperbarui sistem hukum kita agar lebih adil dan efisien, agar dapat mengimbangi AI dan mengelola risiko yang terkait dengan AI?
- Nilai-nilai apa yang harus diselaraskan dengan AI, dan status hukum dan etika apa yang harus dimilikinya?
3. Tautan kebijakan sains: Harus ada pertukaran yang konstruktif dan sehat antara peneliti AI dan pembuat kebijakan.
4. Budaya penelitian: Budaya kolaborasi, kepercayaan, dan transparansi harus dipupuk di kalangan peneliti dan pengembang AI.
5. Penghindaran Ras: Tim yang mengembangkan sistem AI harus berkolaborasi secara aktif untuk menghindari standar keselamatan.
Etika dan nilai
6. Keamanan: Sistem AI harus aman dan terjamin sepanjang masa operasionalnya, dan dapat diverifikasi jika memungkinkan dan dapat diterapkan.
7. Transparansi kegagalan: Jika sistem AI menyebabkan kerusakan, penyebabnya dapat diketahui.
8. Transparansi peradilan: Setiap keterlibatan sistem otonom dalam pengambilan keputusan peradilan harus memberikan penjelasan yang memuaskan yang dapat diaudit oleh otoritas manusia yang kompeten.
9. Tanggung jawab: Perancang dan pembuat sistem AI yang canggih merupakan pemangku kepentingan dalam dampak moral dari penggunaan, penyalahgunaan, dan tindakan mereka, yang memiliki tanggung jawab dan peluang untuk membentuk implikasi tersebut.
10. Penyelarasan Nilai: Sistem AI yang sangat otonom harus dirancang sedemikian rupa sehingga tujuan dan perilakunya dapat dipastikan selaras dengan nilai-nilai kemanusiaan selama pengoperasiannya.
11. Nilai-nilai kemanusiaan: Sistem AI harus dirancang dan dioperasikan sedemikian rupa sehingga sesuai dengan cita-cita martabat manusia, hak, kebebasan, dan keragaman budaya.
12. Privasi pribadi: Manusia harus mempunyai hak untuk mengakses, mengelola, dan mengontrol data yang mereka hasilkan, mengingat kemampuan sistem AI untuk menganalisis dan menggunakan data tersebut.
13. Kebebasan dan Privasi: Penerapan AI pada data pribadi tidak boleh membatasi kebebasan nyata atau kebebasan yang dirasakan seseorang secara tidak wajar.
14. Manfaat bersama: Teknologi AI harus memberikan manfaat dan memberdayakan sebanyak mungkin orang.
15. Kemakmuran Bersama: Kekayaan ekonomi yang diciptakan oleh AI harus dibagikan secara luas, demi kepentingan seluruh umat manusia.
16. Pengendalian manusia: Manusia harus memilih bagaimana dan apakah akan mendelegasikan keputusan ke sistem AI, untuk mencapai tujuan yang dipilih manusia.
17. Non-subversi: Kekuasaan yang diberikan melalui pengendalian sistem AI yang sangat canggih harus menghormati dan meningkatkan, bukan melemahkan, proses sosial dan kemasyarakatan yang menjadi sandaran kesehatan masyarakat.
18. Perlombaan Senjata AI: Perlombaan senjata dalam senjata otonom yang mematikan harus dihindari.
Masalah jangka panjang
19. Peringatan Kemampuan: Jika tidak ada konsensus, kita sebaiknya menghindari membuat asumsi yang kuat mengenai batas atas kemampuan AI di masa depan.
20. Pentingnya: AI tingkat lanjut mungkin mewakili perubahan besar dalam sejarah kehidupan di Bumi, dan harus direncanakan serta dikelola dengan perhatian dan sumber daya yang tepat.
21. Resiko: Risiko yang ditimbulkan oleh sistem AI, khususnya risiko bencana atau risiko eksistensial, harus tunduk pada upaya perencanaan dan mitigasi yang sepadan dengan dampak yang diharapkan.
22. Peningkatan Diri Rekursif: Sistem AI yang dirancang untuk meningkatkan atau mereplikasi diri secara rekursif dengan cara yang dapat meningkatkan kualitas atau kuantitas dengan cepat harus tunduk pada langkah-langkah keamanan dan pengendalian yang ketat.
23. Hal umum: Kecerdasan super hanya boleh dikembangkan demi kepentingan etika yang dimiliki bersama, dan untuk kepentingan seluruh umat manusia, bukan untuk satu negara atau organisasi.
Prinsip yang ada saat ini hanya itu saja – prinsip. Pada tahap ini, belum ada badan pengatur yang akan mengupayakan penegakan pedoman yang diusulkan. Meski demikian, prinsip-prinsip ini dapat menjadi tulang punggung atau titik awal bagi potensi undang-undang atau aturan terkait pengembangan AI di masa depan.
“Kami berharap prinsip-prinsip ini akan menjadi bahan diskusi yang aktif dan juga tujuan aspiratif mengenai bagaimana kekuatan AI dapat digunakan untuk meningkatkan kehidupan semua orang di tahun-tahun mendatang,” demikian isi situs web FOL. – Rappler.com