5 Sebab Mengapa Anda Tidak Perlu Percaya ChatGPT untuk Nasihat Perubatan

5 Sebab Mengapa Anda Tidak Perlu Percaya ChatGPT untuk Nasihat Perubatan
Pembaca seperti anda membantu menyokong MUO. Apabila anda membuat pembelian menggunakan pautan di tapak kami, kami mungkin mendapat komisen ahli gabungan. Baca Lagi.

ChatGPT—sebuah chatbot kecerdasan buatan (AI) yang dibangunkan oleh OpenAI—telah menjadi alat semua-dalam-satu untuk menjawab banyak soalan mudah dan sukar, termasuk permintaan untuk mendapatkan nasihat perubatan. Ia boleh menjawab soalan perubatan dan mendapat Peperiksaan Pelesenan Perubatan Amerika Syarikat (USMLE), tetapi ia tidak boleh menggantikan temu janji dengan doktor di hospital.





MAKEUSEOF VIDEO OF THE DAY SCROLL UNTUK MENERUSKAN KANDUNGAN

Apabila ChatGPT berkembang, ia berpotensi untuk mengubah sektor penjagaan kesihatan sepenuhnya. Apabila disepadukan dengan sistem kesihatan, ia boleh meningkatkan akses pesakit kepada penjagaan dan meningkatkan kecekapan kerja doktor. Walau bagaimanapun, kerana ia berasaskan AI, beberapa kebimbangan mengenai potensi bahayanya wujud.





kertas dinding hidup hd terbaik untuk android

1. ChatGPT Mempunyai Pengetahuan Terhad

  Babi ke hati

ChatGPT tidak tahu segala-galanya. Menurut OpenAI, ChatGPT mempunyai pengetahuan yang terhad, terutamanya apabila ia berkaitan dengan apa yang berlaku selepas September 2021.





ChatGPT tidak mempunyai akses terus ke enjin carian atau internet. Ia dilatih menggunakan sejumlah besar data teks daripada pelbagai sumber, termasuk buku, tapak web dan teks lain. Ia tidak 'tahu' data yang disampaikannya. Sebaliknya, ChatGPT menggunakan teks yang telah dibacanya untuk mencipta ramalan tentang perkataan yang hendak digunakan dan dalam susunan apa.

Oleh itu, ia tidak boleh mendapat berita semasa tentang perkembangan dalam bidang perubatan. Ya, ChatGPT tidak mengetahui pemindahan jantung babi-ke-manusia atau mana-mana penemuan terbaru dalam sains perubatan.



2. ChatGPT Boleh Menghasilkan Maklumat Yang Tidak Betul

ChatGPT boleh menjawab soalan yang anda ajukan, tetapi jawapannya mungkin tidak tepat atau berat sebelah. Menurut a Kesihatan Digital PLoS kajian, ChatGPT dilakukan dengan sekurang-kurangnya 50% ketepatan merentas semua peperiksaan USMLE. Dan walaupun ia melebihi ambang lulus 60% dalam beberapa aspek, masih terdapat kemungkinan ralat.

Tambahan pula, tidak semua maklumat yang digunakan untuk melatih ChatGPT adalah sahih. Respons berdasarkan maklumat yang tidak disahkan atau berkemungkinan berat sebelah mungkin tidak betul atau ketinggalan zaman. Dalam dunia perubatan, maklumat yang tidak tepat malah boleh meragut nyawa.





Oleh kerana ChatGPT tidak boleh menyelidik atau mengesahkan bahan secara bebas, ia tidak dapat membezakan antara fakta dan fiksyen. Jurnal perubatan yang dihormati, termasuk Jurnal Persatuan Perubatan Amerika (JAMA), telah menetapkan peraturan ketat bahawa hanya manusia boleh menulis kajian saintifik yang diterbitkan dalam jurnal. Akibatnya, anda harus sentiasa menyemak fakta jawapan ChatGPT .

3. ChatGPT Tidak Memeriksa Anda Secara Fizikal

Diagnosis perubatan tidak hanya bergantung kepada gejala. Pakar perubatan boleh mendapatkan pandangan tentang corak dan keterukan penyakit melalui pemeriksaan fizikal pesakit. Untuk mendiagnosis pesakit, doktor hari ini menggunakan kedua-dua teknologi perubatan dan lima deria.





ChatGPT tidak boleh melakukan pemeriksaan maya yang lengkap atau pun pemeriksaan fizikal; ia hanya boleh membalas simptom yang anda berikan sebagai mesej. Untuk keselamatan dan penjagaan pesakit, kesilapan dalam pemeriksaan fizikal—atau mengabaikan sepenuhnya pemeriksaan fizikal—boleh membahayakan. Oleh kerana ChatGPT tidak memeriksa anda secara fizikal, ia akan menawarkan diagnosis yang salah.

4. ChatGPT Boleh Memberi Maklumat Palsu

  Balas Palsu ChatGPT

Kajian terbaru oleh Sekolah Perubatan Universiti Maryland atas nasihat ChatGPT untuk pemeriksaan kanser payudara mendapati keputusan berikut:

'Kami telah melihat dalam pengalaman kami bahawa ChatGPT kadangkala membuat artikel jurnal palsu atau konsortium kesihatan untuk menyokong tuntutannya.' —Paul Yi M.D., Penolong Profesor Radiologi Diagnostik dan Perubatan Nuklear di UMSOM

Sebagai sebahagian daripada ujian ChatGPT kami, kami meminta senarai buku bukan fiksyen yang merangkumi subjek minda bawah sedar. Hasilnya, ChatGPT menghasilkan buku palsu bertajuk 'The Power of the Unconscious Mind' oleh Dr Gustav Kuhn.

Apabila kami bertanya tentang buku itu, ia menjawab bahawa ia adalah buku 'hypothetical' yang diciptanya. ChatGPT tidak akan memberitahu anda jika artikel jurnal atau buku adalah palsu jika anda tidak bertanya lebih lanjut.

5. ChatGPT Hanya Model Bahasa AI

  SembangGPT Perubatan

Model bahasa berfungsi dengan menghafal dan membuat generalisasi teks daripada memeriksa atau mengkaji keadaan pesakit. Walaupun menghasilkan respons yang sepadan dengan standard manusia dari segi bahasa dan tatabahasa, ChatGPT masih mengandungi beberapa masalah , sama seperti bot AI yang lain.

ChatGPT Bukan Pengganti untuk Doktor Anda

Doktor manusia akan sentiasa diperlukan untuk membuat panggilan terakhir mengenai keputusan penjagaan kesihatan. ChatGPT biasanya menasihati bercakap dengan pengamal penjagaan kesihatan berlesen apabila anda meminta nasihat perubatan.

kedai permainan google telah menghentikan android

Alat yang dikuasakan kecerdasan buatan seperti ChatGPT boleh digunakan untuk menjadualkan temu janji doktor, membantu pesakit dalam menerima rawatan dan mengekalkan maklumat kesihatan mereka. Tetapi ia tidak boleh menggantikan kepakaran dan empati doktor.

Anda tidak seharusnya bergantung pada alat berasaskan AI untuk mendiagnosis atau merawat kesihatan anda, sama ada fizikal atau mental.