3 Risiko dan Kebimbangan Privasi Chatbot yang Perlu Anda Ketahui

3 Risiko dan Kebimbangan Privasi Chatbot yang Perlu Anda Ketahui
Pembaca seperti anda membantu menyokong MUO. Apabila anda membuat pembelian menggunakan pautan di tapak kami, kami mungkin mendapat komisen ahli gabungan. Baca Lagi.   Kunci gembok dengan kekunci papan kekunci bertaburan

Chatbots telah wujud selama bertahun-tahun, tetapi kebangkitan model bahasa yang besar, seperti ChatGPT dan Google Bard, telah memberikan industri chatbot nafas baharu.





Berjuta-juta orang kini menggunakan chatbot AI di seluruh dunia, tetapi terdapat beberapa risiko dan kebimbangan privasi penting yang perlu diingat jika anda ingin mencuba salah satu alat ini.





1. Pengumpulan Data

Kebanyakan orang tidak menggunakan chatbots hanya untuk bertanya khabar. Chatbots moden direka untuk memproses dan menjawab soalan dan permintaan yang rumit, dengan pengguna sering memasukkan banyak maklumat dalam gesaan mereka. Walaupun anda hanya bertanya soalan mudah, anda tidak mahu soalan itu melampaui perbualan anda.





mengikut Bahagian sokongan OpenAI , anda boleh memadamkan log sembang ChatGPT bila-bila masa yang anda inginkan, dan log tersebut kemudiannya akan dipadamkan secara kekal daripada sistem OpenAI selepas 30 hari. Walau bagaimanapun, syarikat akan mengekalkan dan menyemak log sembang tertentu jika mereka telah dibenderakan untuk kandungan berbahaya atau tidak sesuai.

Satu lagi chatbot AI popular, Claude, juga menjejaki perbualan anda sebelum ini. Pusat sokongan Anthropic menyatakan bahawa Claude menjejaki 'gesaan dan output anda dalam produk untuk memberikan anda pengalaman produk yang konsisten dari semasa ke semasa mengikut kawalan anda.' Anda boleh memadamkan perbualan anda dengan Claude, jadi ia melupakan perkara yang anda perkatakan, tetapi ini tidak bermakna Anthropic akan segera memadamkan log anda daripada sistemnya.



Ini, sudah tentu, menimbulkan persoalan: adakah data saya disimpan atau tidak? Adakah ChatGPT atau chatbot lain menggunakan data saya?

Tetapi kebimbangan tidak berhenti di sini.





Bagaimana ChatGPT Belajar?

Untuk memberikan maklumat, model bahasa yang besar dilatih dengan sejumlah besar data. mengikut Fokus Sains , ChatGPT-4 sahaja telah diberi 300 bilion perkataan maklumat semasa tempoh latihannya. Ini tidak diambil terus daripada beberapa ensiklopedia. Sebaliknya, pembangun chatbot menggunakan banyak maklumat daripada internet untuk melatih model mereka. Ini boleh termasuk data daripada buku, filem, artikel, entri Wikipedia, catatan blog, ulasan dan juga tapak semakan.

Perlu diingat bahawa, bergantung pada dasar privasi pembangun chatbot, beberapa sumber yang disebutkan di atas mungkin tidak digunakan dalam latihan.





Ramai telah mengkritik ChatGPT, mendakwa bahawa ia adalah sesuatu yang mimpi ngeri dari segi privasi, bahawa ChatGPT tidak boleh dipercayai . Jadi, mengapa ini berlaku?

Di sinilah keadaan menjadi sedikit kabur. Jika anda bertanya ChatGPT-3.5 secara langsung sama ada ia mempunyai akses kepada ulasan produk atau ulasan artikel, anda akan mendapat jawapan yang negatif. Seperti yang anda boleh lihat dalam tangkapan skrin di bawah, GPT-3.5 menyatakan bahawa ia tidak diberikan akses kepada ulasan artikel pengguna atau ulasan produk dalam latihannya.

  tangkapan skrin perbualan chatgpt-3.5

Sebaliknya, ia dilatih menggunakan 'pelbagai jenis teks daripada internet, termasuk tapak web, buku, artikel dan bahan bertulis lain yang tersedia untuk umum sehingga September 2021.'

Tetapi adakah kes yang sama untuk GPT-4?

Apabila kami bertanya kepada GPT-4, kami diberitahu bahawa 'OpenAI tidak menggunakan ulasan pengguna tertentu, data peribadi atau ulasan artikel' dalam tempoh latihan chatbot. Selain itu, GPT-4 memberitahu kami bahawa responsnya dihasilkan daripada 'corak dalam data [yang] dilatih, yang terutamanya terdiri daripada buku, artikel dan teks lain daripada internet.'

Apabila kami menyiasat lebih lanjut, GPT-4 mendakwa bahawa kandungan media sosial tertentu mungkin, sememangnya, dimasukkan dalam data latihannya, tetapi pencipta akan sentiasa kekal tanpa nama. GPT-4 secara khusus menyatakan bahawa 'Walaupun kandungan daripada platform seperti Reddit adalah sebahagian daripada data latihan, [ia tidak] mempunyai akses kepada ulasan, siaran atau sebarang data tertentu yang boleh dipautkan kembali kepada pengguna individu.'

Satu lagi bahagian yang ketara dalam tindak balas GPT-4 adalah seperti berikut 'OpenAI tidak menyenaraikan secara eksplisit setiap sumber data yang digunakan.' Sudah tentu, sukar untuk OpenAI menyenaraikan sumber bernilai 300 bilion perkataan, tetapi ini memberikan ruang untuk spekulasi.

Dalam sebuah Artikel Ars Technica , telah dinyatakan bahawa ChatGPT mengumpul 'maklumat peribadi yang diperoleh tanpa persetujuan.' Dalam artikel yang sama, integriti kontekstual telah disebut, konsep yang merujuk kepada hanya menggunakan maklumat seseorang dalam konteks ia pada mulanya digunakan. Jika ChatGPT melanggar integriti kontekstual ini, data orang ramai boleh berisiko.

Satu lagi perkara yang membimbangkan di sini ialah pematuhan OpenAI dengan Peraturan Perlindungan Data Umum (GDPR) . Ini adalah peraturan yang dikuatkuasakan oleh Kesatuan Eropah untuk melindungi data rakyat. Pelbagai negara Eropah, termasuk Itali dan Poland, telah melancarkan penyiasatan terhadap ChatGPT kerana kebimbangan mengenai pematuhan GDPRnya. Untuk masa yang singkat, ChatGPT malah diharamkan di Itali kerana kebimbangan privasi.

OpenAI telah mengancam untuk menarik diri daripada EU pada masa lalu kerana peraturan AI yang dirancang, tetapi ini telah ditarik balik.

mengapa penggunaan cakera pada 100

ChatGPT mungkin merupakan chatbot AI terbesar hari ini, tetapi isu privasi chatbot tidak bermula dan berakhir dengan penyedia ini. Jika anda menggunakan chatbot rendang dengan dasar privasi yang hambar, perbualan anda mungkin disalahgunakan atau maklumat yang sangat sensitif boleh digunakan dalam data latihannya.

2. Kecurian Data

Seperti mana-mana alat atau platform dalam talian, chatbots terdedah kepada jenayah siber. Walaupun chatbot melakukan semua yang termampu untuk melindungi pengguna dan data mereka, sentiasa ada peluang bahawa penggodam yang bijak akan berjaya menyusup ke sistem dalamannya.

Jika perkhidmatan chatbot tertentu menyimpan maklumat sensitif anda, seperti butiran pembayaran untuk langganan premium anda, data hubungan atau yang serupa, ini boleh dicuri dan dieksploitasi jika serangan siber berlaku.

Ini benar terutamanya jika anda menggunakan chatbot yang kurang selamat yang pembangunnya tidak melabur dalam perlindungan keselamatan yang mencukupi. Bukan sahaja sistem dalaman syarikat boleh digodam, tetapi akaun anda sendiri berpeluang untuk dikompromi jika ia tidak mempunyai makluman log masuk atau lapisan pengesahan.

Kini setelah chatbot AI begitu popular, penjenayah siber secara semula jadi berbondong-bondong menggunakan industri ini untuk penipuan mereka. Tapak web dan pemalam ChatGPT palsu telah menjadi masalah besar sejak chatbot OpenAI melanda arus perdana pada akhir 2022, dengan orang ramai terjebak dengan penipuan dan memberikan maklumat peribadi dengan berselindung dengan kesahihan dan kepercayaan.

Pada Mac 2023, MUO melaporkan pada a sambungan Chrome ChatGPT palsu mencuri log masuk Facebook . Pemalam itu boleh mengeksploitasi pintu belakang Facebook untuk menggodam akaun berprofil tinggi dan mencuri kuki pengguna. Ini hanyalah satu contoh banyak perkhidmatan ChatGPT palsu yang direka untuk menipu mangsa yang tidak tahu.

3. Jangkitan Hasad

Jika anda menggunakan chatbot rendang tanpa disedari, anda mungkin mendapati chatbot memberikan anda pautan ke tapak web berniat jahat. Mungkin chatbot telah memaklumkan anda tentang pemberian yang menggoda, atau menyediakan sumber untuk salah satu kenyataannya. Jika pengendali perkhidmatan mempunyai niat yang tidak sah, intipati keseluruhan platform itu mungkin untuk menyebarkan perisian hasad dan penipuan melalui pautan berniat jahat.

Sebagai alternatif, penggodam boleh menjejaskan perkhidmatan chatbot yang sah dan menggunakannya untuk menyebarkan perisian hasad. Jika chatbot ini adalah sangat ramai orang, maka beribu-ribu, malah berjuta-juta pengguna akan terdedah kepada perisian hasad ini. Aplikasi ChatGPT palsu telah pun ada di Apple App Store , jadi sebaiknya melangkah dengan berhati-hati.

Secara umum, anda tidak boleh mengklik mana-mana pautan yang disediakan oleh chatbot sebelum ini menjalankannya melalui tapak web semakan pautan . Ini mungkin kelihatan menjengkelkan, tetapi sebaiknya pastikan tapak yang anda tuju tidak mempunyai reka bentuk yang berniat jahat.

Selain itu, anda tidak boleh memasang sebarang pemalam dan sambungan chatbot tanpa mengesahkan kesahihannya terlebih dahulu. Lakukan sedikit penyelidikan di sekitar apl untuk melihat sama ada apl itu telah disemak dengan baik, dan juga jalankan carian pembangun apl untuk melihat sama ada anda menemui sesuatu yang rendang.

Chatbots Tidak Kebal terhadap Isu Privasi

Seperti kebanyakan alat dalam talian pada masa kini, chatbots telah berulang kali dikritik kerana kemungkinan perangkap keselamatan dan privasi mereka. Sama ada penyedia chatbot mengambil bahagian dalam hal keselamatan pengguna, atau risiko serangan siber dan penipuan yang berterusan, adalah penting untuk anda mengetahui perkara yang dikumpulkan oleh perkhidmatan chatbot anda kepada anda dan sama ada ia menggunakan langkah keselamatan yang mencukupi.