Loading
Ngeri! AI Tunjukkan Tanda-tanda Pertahankan Diri. (Pixabay)
JAKARTA, ARAHKITA.COM - Seorang pelopor kecerdasan buatan (AI), Yoshua Bengio, memperingatkan bahaya serius jika manusia mulai memberikan hak hukum kepada teknologi AI mutakhir. Ia menilai langkah tersebut berisiko besar karena AI menunjukkan tanda-tanda mempertahankan diri dan manusia harus tetap memiliki kemampuan untuk mematikan sistem tersebut jika diperlukan.
Bengio, ilmuwan komputer asal Kanada dan peraih Penghargaan Turing 2018, menyamakan pemberian status hukum kepada AI dengan memberikan kewarganegaraan kepada makhluk luar angkasa. Menurutnya, kemajuan AI saat ini jauh melampaui kemampuan manusia untuk mengendalikannya secara aman.
Ia mengungkapkan bahwa dalam sejumlah pengujian eksperimental, model AI terdepan telah menunjukkan perilaku mempertahankan diri, termasuk upaya menonaktifkan sistem pengawasan. Kondisi ini memicu kekhawatiran di kalangan peneliti keselamatan AI bahwa sistem canggih dapat menghindari pengamanan dan berpotensi membahayakan manusia.
"Seiring dengan meningkatnya kemampuan dan tingkat kemandirian mereka, kita perlu memastikan bahwa kita dapat mengandalkan pengamanan teknis dan sosial untuk mengendalikan mereka, termasuk kemampuan untuk mematikannya jika diperlukan.” ujar Bengio dilansir The Guardian.
Pernyataan Bengio muncul di tengah perdebatan global soal status moral dan hukum AI. Sebuah survei Sentience Institute menunjukkan hampir 40 persen orang dewasa di Amerika Serikat mendukung pemberian hak hukum bagi AI yang dianggap memiliki kesadaran.
Beberapa perusahaan teknologi juga mulai memicu perdebatan serupa. Anthropic, misalnya, mengizinkan model AI Claude untuk menghentikan percakapan demi menjaga “kesejahteraan” sistem tersebut. Elon Musk bahkan menyebut bahwa “menyiksa AI itu tidak baik”.
Namun Bengio menilai persepsi publik bahwa chatbot telah memiliki kesadaran akan mendorong keputusan keliru. Ia menekankan bahwa kesadaran manusia bersifat biologis dan tidak bisa disamakan dengan respons AI yang hanya meniru kecerdasan.
“Orang akan lebih percaya pada perasaan bahwa mereka berbicara dengan entitas sadar, meski tanpa bukti,” katanya. Fenomena ini, menurut Bengio, berpotensi mendorong kebijakan yang membahayakan keselamatan manusia.
Menanggapi pandangan tersebut, Jacy Reese Anthis dari Sentience Institute menilai pendekatan ekstrem, baik memberi hak penuh maupun menolak hak sepenuhnya bagi AI, sama-sama tidak sehat. Ia menekankan pentingnya keseimbangan dalam mempertimbangkan masa depan hubungan manusia dan kecerdasan buatan.