redaksiharian.com – harus mencermati apa yang dinyatakan CEO OpenAI, Sam Altman di depan Senat Amerika Serika. Ia khawatir tentang potensi dampak AI pada demokrasi. Bagaimana AI akan dapat digunakan untuk mengirim informasi yang salah selama pemilihan di AS.

Selain pendekatan teknologi dan cyber security, salah satu pendekatan efektif untuk mengendalikan Artificial Intelligence (AI) adalah pendekatan regulasi.

Terkait pentingnya regulasi ini, justru dikemukakan sendiri oleh pioner teknologi AI Sam Altman, CEO OpenAI. Tokoh AI yang berada di belakang lahirnya ChatGPT.

Berdasarkan prinsip hukum transformatif, hukum memiliki tujuan multi fungsi. Tiga fungsi hukum pertama adalah untuk terpeliharanya ketertiban, keadilan, dan kepastian.

Dua fungsi hukum berikutnya adalah demi terciptanya kemanfaatan dan sebagai infrastruktur (soft infrastructure) transformasi. Dalam arti mengarahkan dan mengawal berlangsungnya transformasi secara aman dan berdimensi manusia sebagai pusat peradaban.

Transformasi digital telah melahirkan sistem dan produk teknologi mencengangkan. Berbagai model bisnis, produk baru, interaksi AI-manusia dan berbagai implikasinya, disadari atau tidak telah melahirkan ketergantungan masyarakat dan kebiasaan baru yang lambat laun akan menjadi layaknya “hukum kebiasaan”.

Ketika kebiasaan ini diulang terus-menerus dan tidak ada regulasi yang mengaturnya, maka secara sistemik akan menjadi perilaku dan budaya digital masif, bahkan melahirkan hukum kebiasaan digital, yang mendisrupsi berbagai ekosistem dan kaidah eksisiting seperti yang kita saksikan saat ini.

Realitas transformasi digital akan mendisrupsi berbagai model bisnis dan norma kehidupan yang ada.

Ketika semua produk dan ekosistem teknologi digital dianggap sebagai Lex Informatica tanpa koreksi dan tanpa pedoman prinsip yang berpihak pada eksistensi manusia, maka tentu akan menjadi ancaman bagi keselamatan dan masa depan peradaban manusia.

Oleh karena itu, berbagai hal dan kebiasan yang lahir dari proses teknologi informasi, khususnya di bidang AI, untuk “dinobatkan” menjadi prinsip-prinsip lex informatica, sebagai sumber hukum kebiasaan baru, harus mulai dikoreksi dan dipilah secara selektif.

Apalagi saat ini ada gerakan untuk moratorium AI yang dilakukan oleh para tokoh dan pelaku teknologi AI.

Hal ini bisa dilakukan jika payung hukum (umbrella legislation) dan prinsip-prinsip hukum umum (general principles of law) di bidang AI ditetapkan lebih dulu seperti yang saat ini tengah dilakukan Parlemen Uni Eropa.

Dinamika di AS

Menyusul Uni Eropa, kesadaran pentingnya regulasi baru di bidang AI juga digaungkan di AS. Keinginan adanya regulasi dikemukakan Sam Altman saat dengar pendapat dengan Senat AS seperti dilaporkan oleh The New York Times pada 16 Mei 2023.

NYT dalam laporannya berjudul OpenAI’s Sam Altman Urges A.I. Regulation in Senate Hearing, menyatakan bahwa eksekutif teknologi dan pembuat undang-undang setuju bahwa sistem AI harus diatur dalam UU.

Pemerintah AS sebelumnya telah membuat AI RMF 1.0 sebagai pedoman dan rupanya itu dianggap tidak cukup.

Sebagaimana dilansir BBC News, 17 Mei 2023, Sam Altman meminta agar AS mengatur kecerdasan buatan . Tokoh di belakang ChatGPT ini mengingatkan Komite Senat AS tentang kemungkinan jebakan teknologi baru tersebut.

Di mana ChatGPT dan program serupa lainnya dapat membuat jawaban pertanyaan yang sangat manusiawi, tetapi juga bisa sangat tidak akurat.

Altman ingin bekerja sama dengan pemerintah untuk mencegah hal yang membahayakan itu terjadi. Ia mengatakan bahwa regulasi tentang AI adalah penting.

Ia juga mengakui dampak AI terhadap ekonomi, termasuk kemungkinan dapat menggantikan sejumlah pekerjaan yang menyebabkan PHK di bidang tertentu. Meski demikian, Altman optimistis betapa hebatnya pekerjaan pada masa depan.

Beberapa senator berpendapat undang-undang baru diperlukan untuk memudahkan orang menuntut OpenAI.

Senator Republik Josh Hawley mengatakan, teknologi itu bisa revolusioner, tetapi ia juga membandingkan teknologi baru itu dengan penemuan “bom atom”. Perusahaan seperti OpenAI harus diaudit secara independen.

Senator Demokrat Richard Blumenthal mengamati bahwa masa depan yang didominasi AI “belum tentu merupakan masa depan yang kita inginkan”.

Jika Parlemen AS melakukan langkah pembuatan UU AI, maka ini akan menjadi langkah signifikan melampaui berbagai pedoman dan best practices yang telah dibuat oleh Pemerintah sebelumnya.

Data bias

Performa paltform AI sangat tergantung pada data. Josh Simons dalam laporan penelitiannya berjudul Why Democracy Belongs in Artificial Intelligence © 2023 Princeton University Press, mengemukakan bahwa sejarah “prasangka (prejudice)” dalam sistem peradilan pidana Amerika tersimpan dalam data yang digunakan untuk melatih algoritma machine learning.

Algoritma tersebut kemudian dapat mereproduksinya dan membangkitkan pola ketidakadilan.

Penelitian Josh Simons menjadi peringatan bagi pengembang AI. Luaran dan solusi yang diprediksi sekaligus diproduksi platform AI, tidak hanya bisa bias, tidak akurat dan salah, tetapi juga bisa membawa pemikiran, diskriminatif, dan ketidakadilan masa lalu yang diformulasikan dalam solusi dan prediksi saat ini.

Oleh karena itu, salah satu kekhawatiran yang mengemuka antara lain luaran diskriminatif dan prejudice.

Tanggung jawab produk

Tanggung jawab produk (product liability) adalah tanggung jawab hukum produsen terhadap produk yang mereka hasilkan dan dijual kepada konsumen.

Dalam konteks pembuatan dan pemanfaatan AI, product liability menjadi sangat penting, karena teknologi AI dapat memiliki dampak besar terhadap pengguna dan masyarakat secara umum.

Pada prinsipnya, pembuat dan pengembang AI bertanggung jawab untuk memastikan bahwa produk yang dibuat aman dan tidak membahayakan pengguna atau orang lain.

Di samping memberikan peringatan tentang kemungkinan risiko atau efek samping yang mungkin terjadi.

Jika ada masalah atau cacat dalam produk AI, pengembang harus segera mengambil tindakan untuk memperbaikinya dan memberi tahu pengguna tentang masalah tersebut.

Karena mereka juga akan bertanggung jawab jika pengguna atau pihak lain mengalami kerugian atau cedera akibat penggunaan produk tersebut.

Pendekatan ini akan membantu memastikan bahwa AI digunakan dengan cara yang aman dan bertanggung jawab. Serta melindungi pengguna dan masyarakat dari potensi risiko dan bahaya yang terkait dengan teknologi ini.

Undang-undang tentang AI dan tanggung jawab produk pembuat AI dan platform digitalnya sangat penting untuk diimplementasikan. UU yang jelas dan rinci akan membantu melindungi masyarakat dan mendorong inovasi yang bertanggung jawab.

Undang-undang harus mencakup tanggung jawab pembuat AI dalam hal keamanan, privasi, dan kesalahan yang dapat timbul dari penggunaannya.

Termasuk memoderasi konten yang dihasilkan AI agar tidak melanggar hak asasi manusia atau merugikan masyarakat secara umum.

Fenomena yang berkembang di AS dan Uni Eropa harus diantisipasi. Kita harus mencermati apa yang dinyatakan CEO OpenAI, Sam Altman, di depan Senat AS, terkait kekhawatirannya tentang potensi dampak pada demokrasi dan bagaimana AI dapat digunakan untuk mengirim informasi yang salah selama pemilihan di AS yang menjadi salah satu perhatian terbesarnya.

Altman lebih lanjut mengatakan,”Tahun depan kita akan menghadapi pemilu. Dan model-model ini menjadi lebih baik.”

Ia memberikan beberapa saran tentang bagaimana AS dapat mengatur industri, termasuk kombinasi persyaratan lisensi dan pengujian untuk perusahaan AI.

Hal ini dapat digunakan untuk mengatur pengembangan dan peluncuran model AI di atas ambang batas kemampuan. Altman juga mengusulkan agar perusahaan seperti OpenAI diaudit secara independen.

Perkembangan mutakhir ini penting kita cermati, mengingat penggunaan berbagai platform berkekuatan AI juga tidak dapat kita hindari. Sehingga langkah pembentukan regulasi perlu dilakukan.