Apakah Halusinasi AI, dan Bagaimana Anda Mengesannya?

Apakah Halusinasi AI, dan Bagaimana Anda Mengesannya?
Pembaca seperti anda membantu menyokong MUO. Apabila anda membuat pembelian menggunakan pautan di tapak kami, kami mungkin mendapat komisen ahli gabungan. Baca Lagi.

Halusinasi Kecerdasan Buatan (AI) kedengaran membingungkan. Anda mungkin berfikir, 'Bukankah halusinasi adalah fenomena manusia?' Ya, ia pernah menjadi fenomena manusia semata-mata sehingga AI mula mempamerkan ciri-ciri manusia seperti pengecaman muka, pembelajaran kendiri dan pengecaman pertuturan.





MAKEUSEOF VIDEO OF THE DAY SCROLL UNTUK MENERUSKAN KANDUNGAN

Malangnya, AI mengambil beberapa sifat negatif, termasuk halusinasi. Jadi, adakah halusinasi AI serupa dengan jenis halusinasi yang dialami manusia?





Apakah Halusinasi AI?

Halusinasi kecerdasan buatan berlaku apabila model AI menghasilkan output yang berbeza daripada apa yang dijangkakan. Ambil perhatian bahawa sesetengah model AI dilatih untuk menjana output secara sengaja yang tidak berkaitan dengan sebarang input (data) dunia sebenar.





Sebagai contoh, penjana teks-ke-seni AI teratas , seperti DALL-E 2, secara kreatif boleh menjana imej novel yang boleh kami tandai sebagai 'halusinasi' kerana ia tidak berdasarkan data dunia sebenar.

Halusinasi AI dalam Model Pemprosesan Bahasa Besar

Mari kita pertimbangkan rupa halusinasi AI dalam model pemprosesan bahasa yang besar seperti ChatGPT. Halusinasi ChatGPT akan menyebabkan bot memberikan anda fakta yang salah dengan beberapa penegasan, sehingga anda secara semula jadi akan menganggap fakta tersebut sebagai kebenaran.



Secara ringkas, ia adalah kenyataan yang dibuat oleh chatbot pintar buatan. Berikut ialah contoh:

  SembangGPT's response to where Elon Musk's house is located

Mengenai pertanyaan lanjut, ChatGPT muncul dengan ini:





  Gesaan ChatGPT bertanyakan lebih lanjut di mana elon musk's factory is at in brazil

Halusinasi AI dalam Penglihatan Komputer

Mari kita pertimbangkan satu lagi bidang AI yang boleh mengalami halusinasi AI: Visi komputer . Kuiz di bawah menunjukkan montaj 4x4 dengan dua entiti yang kelihatan sangat serupa. Imej-imej adalah campuran kerepek kentang BBQ dan daun.

Cabarannya ialah memilih kerepek kentang tanpa terkena sebarang daun dalam montaj. Imej ini mungkin kelihatan sukar untuk komputer, dan ia mungkin tidak dapat membezakan antara kerepek kentang BBQ dan daun.





  Montaj 4x4 kerepek kentang BBQ dan daun

Berikut ialah satu lagi montaj dengan gabungan imej roti poodle dan serunding babi. Komputer berkemungkinan besar tidak dapat membezakan antara mereka, oleh itu mencampurkan imej.

  Satu montaj 4x4 roti poodle dan serunding babi

Mengapa Halusinasi AI Berlaku?

Halusinasi AI boleh berlaku disebabkan oleh contoh musuh—data input yang memperdaya aplikasi AI untuk mengklasifikasikannya secara salah. Contohnya, apabila melatih aplikasi AI, pembangun menggunakan data (imej, teks atau lain-lain); jika data diubah atau diherotkan, aplikasi mentafsir input secara berbeza, memberikan output yang salah.

tidak dapat mengakses windows 10 uefi

Sebaliknya, manusia masih boleh mengecam dan mengenal pasti data dengan tepat walaupun terdapat herotan. Kita boleh menandakan ini sebagai akal sehat—sifat manusia yang belum dimiliki AI. Tonton bagaimana AI tertipu dengan contoh musuh dalam video ini:

Mengenai model berasaskan bahasa yang besar seperti ChatGPT dan alternatifnya , halusinasi mungkin timbul daripada penyahkodan yang tidak tepat daripada pengubah (model pembelajaran mesin).

Dalam AI, transformer ialah model pembelajaran mendalam yang menggunakan perhatian kendiri (hubungan semantik antara perkataan dalam ayat) untuk menghasilkan teks yang serupa dengan apa yang manusia akan tulis menggunakan urutan pengekod-penyahkod (input-output).

Jadi transformer, model pembelajaran mesin separa diselia, boleh menjana badan baharu teks (output) daripada korpus besar data teks yang digunakan dalam latihannya (input). Ia berbuat demikian dengan meramalkan perkataan seterusnya dalam satu siri berdasarkan perkataan sebelumnya.

Berkenaan halusinasi, jika model bahasa dilatih mengenai data dan sumber yang tidak mencukupi dan tidak tepat, adalah dijangka bahawa output akan dibuat-buat dan tidak tepat. Model bahasa mungkin menghasilkan cerita atau naratif tanpa ketidakkonsistenan logik atau sambungan yang tidak jelas.

Dalam contoh di bawah, ChatGPT diminta memberikan perkataan yang serupa dengan 'pemberontakan' dan bermula dengan 'b.' Ini jawapannya:

  Tangkapan skrin ChatGPT memberikan respons yang salah kepada soalan

Apabila diselidiki lebih lanjut, ia terus memberikan jawapan yang salah, dengan tahap keyakinan yang tinggi.

  Tangkapan skrin ChatGPT memberikan berbilang jawapan yang salah kepada gesaan

Jadi mengapa ChatGPT tidak dapat memberikan jawapan yang tepat kepada gesaan ini?

Mungkin model bahasa tidak dilengkapi untuk mengendalikan gesaan yang agak rumit seperti ini atau ia tidak dapat mentafsir gesaan dengan tepat, mengabaikan gesaan untuk memberikan perkataan yang serupa dengan abjad tertentu.

Bagaimana Anda Mengesan Halusinasi AI?

Kini terbukti bahawa aplikasi AI mempunyai potensi untuk berhalusinasi—menjana tindak balas sebaliknya daripada output yang dijangkakan (fakta atau kebenaran) tanpa sebarang niat jahat. Dan mengesan dan mengenali halusinasi AI terpulang kepada pengguna aplikasi tersebut.

Berikut ialah beberapa cara untuk mengesan halusinasi AI semasa menggunakan aplikasi AI biasa:

1. Model Pemprosesan Bahasa Besar

  Gambar menunjukkan Bing Chat dan ChatGPT pada tanda anak panah

Walaupun jarang berlaku, jika anda melihat ralat tatabahasa dalam kandungan yang dihasilkan oleh model pemprosesan yang besar, seperti ChatGPT, itu sepatutnya menaikkan kening dan membuatkan anda mengesyaki halusinasi. Begitu juga, apabila kandungan yang dijana teks tidak berbunyi logik, berkait dengan konteks yang diberikan atau sepadan dengan data input, anda harus mengesyaki halusinasi.

Menggunakan pertimbangan manusia atau akal boleh membantu mengesan halusinasi, kerana manusia boleh mengenal pasti dengan mudah apabila teks tidak masuk akal atau mengikut realiti.

2. Penglihatan Komputer

  Gambar litar dan kepala manusia

Sebagai cabang kecerdasan buatan, pembelajaran mesin dan sains komputer, penglihatan komputer memperkasakan komputer untuk mengenali dan memproses imej seperti mata manusia. menggunakan rangkaian saraf konvolusi , mereka bergantung pada jumlah data visual yang luar biasa yang digunakan dalam latihan mereka.

Penyimpangan daripada corak data visual yang digunakan dalam latihan akan mengakibatkan halusinasi. Contohnya, jika komputer tidak dilatih dengan imej bola tenis, ia boleh mengenal pasti ia sebagai oren hijau. Atau jika komputer mengenali kuda di sebelah patung manusia sebagai kuda di sebelah manusia sebenar, maka halusinasi AI telah berlaku.

Jadi untuk melihat halusinasi penglihatan komputer, bandingkan output yang dijana dengan apa yang dijangka dilihat oleh manusia [normal].

apa maksud rng dalam permainan

3. Kereta Pandu Sendiri

  Ford Blue Cruise 2
Kredit Imej: Ford

Terima kasih kepada AI, kereta pandu sendiri secara beransur-ansur menyusup ke pasaran auto. Perintis seperti Tesla Autopilot dan Ford's BlueCruise telah memperjuangkan adegan kereta pandu sendiri. Anda boleh menyemak bagaimana dan apa yang Tesla Autopilot lihat untuk mendapatkan sedikit pemahaman tentang cara AI memperkasakan kereta pandu sendiri.

Jika anda memiliki salah satu daripada kereta sedemikian, anda ingin tahu sama ada kereta AI anda berhalusinasi. Satu tanda adalah jika kenderaan anda kelihatan menyimpang daripada corak tingkah laku biasa semasa memandu. Contohnya, jika kenderaan brek atau berpusing secara tiba-tiba tanpa sebab yang jelas, kenderaan AI anda mungkin berhalusinasi.

Sistem AI Juga Boleh Berhalusinasi

Manusia dan model AI mengalami halusinasi secara berbeza. Apabila bercakap tentang AI, halusinasi merujuk kepada keluaran yang salah yang jauh dari realiti atau tidak masuk akal dalam konteks gesaan yang diberikan. Sebagai contoh, chatbot AI mungkin memberikan respons yang salah secara tatabahasa atau logik atau salah mengenal pasti objek disebabkan oleh bunyi atau faktor struktur lain.

Halusinasi AI tidak berpunca daripada minda sedar atau bawah sedar, seperti yang anda akan perhatikan pada manusia. Sebaliknya, ia berpunca daripada ketidakcukupan atau ketidakcukupan data yang digunakan dalam latihan dan pengaturcaraan sistem AI.