
Halusinasi AI adalah situasi di mana alat kecerdasan buatan menghasilkan keluaran yang tidak akurat, menyesatkan, atau tidak koheren, karena algoritmanya menemukan pola dalam data yang tidak ada atau menafsirkan pola tersebut secara tidak tepat.
Seiring dengan meningkatnya kemampuan dan popularitas kecerdasan buatan selama beberapa tahun terakhir, beberapa kelemahan dan kerentanannya telah terungkap.
Salah satu pertanyaan terbesar yang dimiliki banyak orang adalah apakah AI akurat. Dalam banyak kasus, AI terbukti menjadi alat yang sangat berguna untuk memeriksa fakta dan meneliti informasi, tetapi dalam beberapa kasus lain, hasil yang dihasilkannya tidak benar atau menyesatkan.
Mengingat beragamnya kasus penggunaan AI di dunia modern, konsekuensi dari ketidakakuratan ini bisa sangat parah. Dalam artikel ini, kita akan membahas mengapa halusinasi AI dapat terjadi, konsekuensi dari sudut pandang teknologi dan sosial, serta apa yang dapat Anda lakukan untuk meminimalkan risiko halusinasi AI dalam penggunaan Anda sendiri.
Bagaimana halusinasi AI terjadi?
Ada beberapa alasan berbeda mengapa halusinasi AI terjadi, dan dalam banyak kasus, penyebabnya adalah kombinasi beberapa alasan tersebut secara bersamaan. Hal ini dapat mencakup (dan tidak terbatas pada):
- Tidak memiliki cukup data pelatihan untuk memandu hasil yang komprehensif dan akurat dari model AI.
- Memiliki terlalu banyak data pelatihan, yang menyebabkan terlalu banyak 'gangguan data' yang tidak relevan tertukar dengan informasi yang relevan dan penting.
- Bias dalam data yang tercermin dalam hasil yang dihasilkan.
- Model AI hanya membuat asumsi dan kesimpulan yang salah dari informasi yang telah diberikan.
- Kurangnya konteks dunia nyata dalam model AI, seperti sifat fisik objek atau informasi yang lebih luas yang relevan dengan hasil yang dihasilkan.
Seperti apa halusinasi AI?
Tidak ada satu set gejala tunggal untuk halusinasi AI karena tergantung pada kekurangan dalam model dan proses yang terlibat. Namun, biasanya, halusinasi AI dapat memanifestasikan dirinya dalam satu dari lima cara berikut:
- Prediksi yang tidak akurat : Model AI mungkin berakhir dengan memprediksi sesuatu akan terjadi di masa depan, yang memiliki sedikit peluang realistis untuk terjadi, atau mungkin tidak ada peluang sama sekali.
- Ringkasan dengan informasi yang hilang : terkadang, model AI mungkin kehilangan konteks atau informasi penting yang dibutuhkan untuk menghasilkan hasil yang akurat dan komprehensif. Hal ini dapat disebabkan oleh kurangnya data yang dimasukkan ke dalam model, atau ketidakmampuan model untuk mencari konteks yang tepat dari sumber lain.
- Ringkasan dengan informasi yang direkayasa : mirip dengan poin sebelumnya, beberapa model AI mungkin mengkompensasi kurangnya informasi akurat dengan mengarang informasi secara keseluruhan. Hal ini sering terjadi ketika data dan konteks yang diandalkan model tersebut tidak akurat sejak awal.
- Positif dan negatif palsu : AI sering digunakan untuk mendeteksi potensi risiko dan ancaman, baik itu gejala penyakit di lingkungan layanan kesehatan maupun kasus penipuan di perbankan dan keuangan. Model AI terkadang dapat mengidentifikasi ancaman yang sebenarnya tidak ada, atau di sisi lain, gagal mengidentifikasi ancaman yang sebenarnya ada.
- Hasil yang tidak koheren : Jika Anda pernah melihat gambar orang-orang dengan jumlah lengan dan kaki yang salah atau mobil dengan terlalu banyak roda yang dihasilkan AI, Anda pasti tahu bahwa AI masih dapat menghasilkan hasil yang tidak masuk akal bagi manusia.
Mengapa penting untuk menghindari halusinasi AI?
Anda mungkin berpikir bahwa halusinasi AI bukanlah masalah besar dan hanya dengan menjalankan kembali data melalui model dapat menyelesaikan masalah dengan menghasilkan hasil yang tepat.
Namun, kenyataannya tidak sesederhana itu, dan setiap halusinasi AI yang diterapkan pada kasus penggunaan praktis atau dirilis ke publik dapat menimbulkan konsekuensi yang sangat parah bagi banyak orang:
Penggunaan AI yang tidak etis
Penggunaan AI, secara umum, sedang menjadi sorotan saat ini, dan organisasi yang memanfaatkan teknologi ini semakin diharapkan untuk menggunakan AI secara bertanggung jawab dan etis yang tidak merugikan atau membahayakan orang. Membiarkan halusinasi AI terjadi tanpa kendali - baik secara sadar maupun tidak sadar - tidak akan memenuhi harapan etis tersebut.
Kepercayaan publik dan konsumen
Terkait dengan poin sebelumnya, banyak orang masih khawatir tentang penggunaan AI, dari bagaimana data pribadi mereka digunakan hingga apakah peningkatan kemampuan AI dapat membuat pekerjaan mereka menjadi usang. Kasus-kasus halusinasi AI yang terus berlanjut di ranah publik dapat mengikis kepercayaan yang perlahan dibangun di antara publik, dan menyebabkan keberhasilan yang terbatas untuk kasus-kasus penggunaan AI dan bisnis dalam jangka panjang.
Pengambilan keputusan yang salah informasi
Bisnis dan orang-orang harus mampu membuat keputusan terbaik dan paling tepat dan semakin bergantung pada data, analitik, dan model AI untuk menghilangkan tebakan dan ketidakpastian dari keputusan-keputusan tersebut. Jika mereka disesatkan oleh hasil yang tidak akurat dari model AI, maka keputusan yang salah yang mereka buat dapat berakibat buruk, mulai dari mengancam profitabilitas bisnis hingga salah mendiagnosis pasien medis.
Risiko hukum dan keuangan dari misinformasi AI
Seperti yang ditunjukkan dengan jelas oleh kasus pengadilan yang disebutkan di atas, informasi yang dihasilkan AI yang tidak akurat dapat menyebabkan kerugian besar dari perspektif hukum dan keuangan. Misalnya, konten yang dibuat menggunakan AI dapat bersifat memfitnah orang atau bisnis tertentu, melanggar peraturan hukum tertentu, atau dalam beberapa kasus ekstrem bahkan menyarankan atau menghasut orang untuk melakukan aktivitas ilegal.
Menghindari bias
Kita hidup di dunia di mana orang-orang bekerja tanpa lelah untuk memastikan bahwa setiap orang diperlakukan sama dan tanpa bias terhadap satu jenis orang di atas yang lain. Namun, data AI yang bias dapat menyebabkan banyak prasangka tersebut diperkuat, seringkali tanpa disengaja. Contoh yang baik dari hal ini adalah penggunaan AI dalam perekrutan dan rekrutmen: Halusinasi AI dapat menyebabkan hasil yang bias yang dapat memengaruhi upaya keberagaman, kesetaraan, dan inklusi organisasi.
Apa saja contoh halusinasi AI yang umum?
Menghindari halusinasi AI terbukti menjadi tugas yang menantang bagi semua orang di industri ini. Dan itu tidak hanya terjadi dengan operasi yang lebih kecil yang tidak memiliki keahlian dan sumber daya. Ketiga contoh halusinasi AI ini membuktikan bahwa hal itu terjadi pada beberapa pemain teknologi terbesar di dunia:
Meta AI dan upaya pembunuhan Donald Trump
Setelah upaya pembunuhan terhadap calon presiden saat itu Donald Trump pada Juli 2024, chatbot AI Meta awalnya menolak untuk menjawab pertanyaan apa pun tentang insiden tersebut dan kemudian mengklaim bahwa insiden itu tidak pernah terjadi. Masalah ini menyebabkan Meta menyesuaikan algoritma alat AI-nya, tetapi juga menimbulkan klaim publik tentang bias dan penyensoran sudut pandang konservatif.
Halusinasi ChatGPT dan penelitian hukum palsu
Pada tahun 2023, seorang pria di Kolombia mengajukan klaim cedera pribadi terhadap sebuah maskapai penerbangan. Pengacaranya menggunakan alat AI terkemuka ChatGPT untuk pertama kalinya untuk menyusun kasusnya dan menyiapkan pengajuan hukum. Namun, meskipun ChatGPT meyakinkan bahwa enam kasus preseden hukum yang ditemukannya adalah nyata, tidak satu pun dari mereka benar-benar ada.
Sydney Microsoft jatuh cinta pada pengguna
Sydney, chatbot bertenaga AI Microsoft, dilaporkan telah memberi tahu seorang kolumnis teknologi di New York Times bahwa chatbot itu mencintainya dan bahwa ia harus meninggalkan istrinya untuk bersamanya. Selama dua jam, Kevin Roose mengatakan bahwa Sydney berbagi dengannya beberapa "fantasi gelap" tentang menyebarkan misinformasi AI dan menjadi manusia.
Apa yang dapat dilakukan untuk meminimalkan risiko halusinasi AI?
Mengingat pentingnya menghindari risiko halusinasi AI, terserah kepada orang-orang yang menggunakan model AI untuk mengambil semua langkah praktis yang mereka bisa untuk mengurangi keadaan apa pun yang dapat menyebabkan masalah. Kami merekomendasikan hal-hal berikut:
Pastikan model AI memiliki tujuan yang jelas
Seiring meluasnya penggunaan AI dalam beberapa tahun terakhir, salah satu kesalahan umum yang sering dilakukan organisasi adalah menggunakan model AI hanya demi menggunakannya, tanpa mempertimbangkan hasil yang diinginkan. Mendefinisikan tujuan keseluruhan penggunaan model AI secara jelas dapat memastikan hasil yang terfokus dan menghindari risiko halusinasi AI melalui pendekatan dan data yang terlalu umum.
Meningkatkan kualitas data pelatihan
Semakin baik kualitas data yang masuk ke model AI, semakin baik pula kualitas hasil yang akan dihasilkan. Model AI yang baik akan didasarkan pada data yang relevan, bebas bias, terstruktur dengan baik, dan telah disaring dari 'gangguan data' yang tidak relevan. Hal ini penting untuk memastikan bahwa hasil yang dihasilkan akurat, dalam konteks yang tepat, dan tidak akan menimbulkan masalah lebih lanjut.
Membuat dan menggunakan templat data
Cara yang baik untuk memastikan bahwa hasil model AI selaras dengan tujuan yang dimaksudkan adalah dengan menggunakan templat untuk data yang dimasukkan ke dalamnya. Ini memastikan bahwa setiap kali model AI digunakan, model tersebut terbiasa dengan data yang disediakan dengan cara yang sama dan konsisten serta dapat memberikan hasil yang konsisten dan akurat dalam konteks yang tepat.
Membatasi rentang respons dan hasil
Menetapkan lebih banyak batasan pada model AI dapat membantu mempersempit hasil potensial ke arah yang dibutuhkan. Di sinilah alat penyaringan dan ambang batas berperan, memberikan model AI beberapa batasan yang sangat dibutuhkan untuk menjaga analisis dan pembuatannya tetap konsisten di jalur yang benar.
Uji dan perbaiki model secara berkelanjutan
Sebagaimana perbaikan berkelanjutan sangat penting untuk pengembangan perangkat lunak yang baik di dunia yang terus berubah, hal yang sama juga berlaku untuk model AI yang baik. Oleh karena itu, semua model AI harus diuji dan disempurnakan secara berkala agar dapat dikalibrasi ulang sesuai dengan perkembangan data, persyaratan, dan informasi kontekstual yang tersedia.
Terapkan mekanisme checks and balances manusia
AI belum sepenuhnya sempurna hingga dapat dipercaya untuk beroperasi secara otonom, jadi memastikan setidaknya ada pengawasan manusia sangatlah penting. Meminta seseorang untuk memeriksa keluaran AI dapat mengidentifikasi halusinasi AI yang telah terjadi dan memastikan keluaran tersebut akurat dan sesuai dengan persyaratan yang ditetapkan.
Perkuat ketentuan keamanan siber Anda
Jika halusinasi AI berisiko menimbulkan kerentanan keamanan siber, maka ini adalah alasan yang baik untuk memastikan solusi keamanan siber terbaik tersedia. Kaspersky Plus Internet Security mencakup pemindaian antivirus waktu nyata sebagai standar sehingga setiap ancaman keamanan yang muncul akibat halusinasi AI dapat ditangani dan dihilangkan sebelum menimbulkan efek samping.
Artikel Terkait:
