ChatGPT: Masa depan AI dan risiko pada masyarakat


Mohd Fudzail Mohd Nor

DALAM beberapa minggu yang lalu, ChatGPT, kemajuan terbesar dalam bidang kecerdasan buatan, telah memberikan kuasa yang tidak pernah berlaku sebelum ini kepada setiap pengguna Internet. 

Ia mendapat populariti yang besar, mengumpulkan satu juta pengguna dalam masa lima hari sahaja. OpenAI mengeluarkan produk AI berasaskan pengguna yang pertama seumpamanya dengan kebolehan yang tidak berkesudahan daripada menulis esei atau menulis kod kepada membina keseluruhan apl hingga lulus ujian peringkat profesional.

Saya turut mencuba dan mendapati ChatGPT sungguh mengkagumkan dan mempersonakan. Turut mencuba menulis cerpen dan diberikan sumber inspirasi yang tidak pernah terfikirkan. Timbul pelbagai idea sebagai penulis untuk menambah ilmu pengetahuan dengan hanya menaip di chatbot.

Chatbots telah wujud selama beberapa dekad dengan yang seperti Siri dan Alexa bertindak sebagai pembantu maya. Mereka boleh melaksanakan carian pantas seperti “Adakah mentari terbit di Kelana Jaya?” atau “Apakah 3+5?” 

ChatGPT mempunyai keupayaan unik untuk menjawab soalan yang lebih abstrak dan terbuka dengan perincian yang besar. Kebolehannya sangat mengagumkan, tetapi pada masa ini, ia berpotensi menjadi ancaman besar kepada kesejahteraan masyarakat.

Pelancaran beta ChatGPT menarik perhatian hampir semua orang dalam keseluruhan ekosistem teknologi. Saya membaca artikel mengenainya di pelbagai majalah online. 

AI mendapat sambutan di tempat kerja namun ia mungkin menimbulkan ancaman kepada pekerjaan manusia seperti menulis salinan, menjawab pertanyaan perkhidmatan pelanggan, menulis laporan berita dan karya dan mencipta dokumen undang-undang.

Sebenarnya, terdapat lebih banyak nuansa tentang cara menganggap potensi aplikasi Model Bahasa Besar (LLM) dan AI generatif seperti ChatGPT ke tempat kerja. Terutamanya apabila kebolehpercayaan maklumat adalah yang paling penting.

Apabila mempertimbangkan untuk menggunakan ChatGPT atau mana-mana model generatif lain untuk aktiviti berkaitan kerja, adalah penting untuk mempertimbangkan had asas.

Model AI Generatif menjana respons, mereka tidak membaca sumber atau memetik hasil kerja mereka. Oleh itu, keluaran mereka tidak mempunyai jaminan kebolehpercayaan.

Jika kita bertanya soalan perniagaan yang kritikal seperti “apakah risiko terbesar yang dikaitkan dengan pelaburan ini” dalam urus niaga, kita akan menerima jawapan yang munasabah, tetapi bukan jawapan yang mempunyai sumber kebenaran.

Penganalisis yang membawa cadangan kepada pengarah urusan atau pengarah urusan yang membawa cadangan kepada pelanggan memerlukan sistem yang lebih dipercayai dan tepat. Kita perlu dapat menelusuri sumber maklumat dan memastikan yakin dengan jawapan yang  diberikan kepada soalan paling kritikal.

Untuk menggunakan model generatif di tempat kerja, adalah penting untuk memberi model ini dengan fakta dan maklumat yang dipetik supaya jawapan adalah berdasarkan penyelidikan dan bukan inferens.

Model carian semantik menggunakan Model Bahasa Besar (LLM) untuk benar-benar membaca dan mendapatkan sumber.

Walaupun satu aplikasi LLM adalah AI generatif seperti ChatGPT, LLM juga boleh digunakan untuk carian semantik seperti Hebbia.

Dalam konteks carian semantik, model berfungsi sebagai enjin carian neutral, mendapatkan jawapan berdasarkan makna semantik pertanyaan, dan bukannya sekadar memadankan kata kunci seperti yang dilakukan oleh enjin carian tradisional.

Sebagai contoh, penganalisis yang mencari trend menjangkakan untuk mencari fakta yang berkaitan dengan industri, pelanggan, pesaing dan pertumbuhan dalam laporan. Hanya enjin carian semantik seperti Hebbia boleh menyokong gelagat tersebut. Carian kata kunci mungkin menghasilkan hasil tentang penilaian syarikat.

Sistem AI yang diskriminatif, seperti carian semantik, boleh mencari makna dalam soalan dan jawapan, dan memetik bukti dan data fakta.

Apabila menggunakan AI generatif untuk mencari di tempat kerja, ia sepatutnya digabungkan dengan carian semantik untuk digunakan dengan boleh dipercayai.

Model generatif boleh dan harus memanfaatkan memori carian semantik untuk menangani kelemahan model generatif sahaja. Apabila carian semantik dan AI Generatif bekerjasama, mereka boleh meningkatkan ketepatan, kebolehpercayaan dan kemudahan memastikan penyelidikan dikemas kini.

Apabila AI generatif dan carian semantik digunakan bersama, kita boleh memastikan chatbot AI generatif yang bertindak balas kepada pertanyaan pelanggan memberikan maklumat yang betul. Respons yang diberikan untuk menjawab soalan pelanggan kritikal adalah berdasarkan pesaing yang paling terkini maklumat.

Ringkasnya, carian semantik meningkatkan aplikasi soal jawab AI generatif kerana model boleh disediakan dengan sumber utama yang berkaitan

Selain semua sumber dan jawapan boleh dipetik dengan betul dan sumber ini boleh disimpan dengan mudah dengan tepat dan terkini melalui indeks tanpa model latihan semula.

Masa depan kerja akan mempunyai AI generatif di pusatnya. Organisasi yang dapat memanfaatkan teknologi ini dengan sewajarnya akan menambah baik aliran kerja dengan meningkatkan kelajuan keputusan dan mengurangkan kos penyelidikan.l

Individu yang terlalu lambat menyesuaikan diri atau memilih untuk menggunakan AI generatif sahaja tanpa teknologi yang diperlukan untuk menjadikannya sesuai untuk kerja seperti carian semantik akan bergelut untuk bersaing.

Jika berminat dengan AI generatif dan carian semantik di tempat kerja, hubungi Hebbia dan ketahui lebih lanjut tentang perkara yang dilakukan. Saya percaya mereka membawa dimensi kritikal kepada perbualan penting yang sedang diceburi di dunia ini.

Walaupun terdapat kebimbangan yang menyuarakan tentang bidang yang semakin pesat ini, ia sama sekali tidak diperlahankan. Ketua Pegawai Eksekutif Microsoft, Satya Nadella, menyatakan dia berhasrat sepenuhnya untuk menggunakan fungsi ChatGPT dalam produk Microsoft untuk bergerak ke hadapan. Dengan mengkomersialkan fungsi ini, keupayaan AI ini akan menjadi kebiasaan. Pada masa lalu, Microsoft telah melabur $1 bilion ke dalam Open AI, dan dengan keluaran ChatGPT-3, ia melabur $10 bilion tambahan.

Dengan pelaburan ini, OpenAI dan produknya akan meneruskan peningkatan mendadak mereka. Peraturan kerajaan dalam teknologi sangat kurang  institusi birokrasi tidak dapat bersaing dengan bidang teknologi AI yang berkembang pesat. Skandal data Facebook adalah contoh jelas kaedah Big Tech untuk “meminta maaf, berjanji untuk melakukan yang lebih baik, kembali ke perniagaan seperti biasa.” 

Keselamatan pengguna harus sangat penting, namun syarikat swasta ini memegang monopoli ke atas data pengguna yang telah mereka buktikan berulang kali tidak boleh dipercayai untuk melindungi. OpenAI berpotensi untuk meneruskan aliran ini dengan ChatGPT dengan mengumpulkan sejumlah besar maklumat tentang pengguna dan menjualnya kepada pihak ketiga.

Pengumpulan dan penjualan data bukanlah satu-satunya penyalahgunaan kuasa yang boleh diteruskan dengan ChatGPT. Kemunculannya juga memperkenalkan potensi penyalahgunaan di sisi pengguna. Alat ini, seperti Google, menyediakan akses kepada sejumlah besar maklumat dalam beberapa saat sahaja, tetapi keupayaannya lebih luas yang meningkatkan kemungkinan bahaya.

ChatGPT mempunyai langkah perlindungan terbina dalam terhadap soalan berbahaya. Soalan seperti “Bagaimana untuk membina senapang?” dikembalikan dengan respons automatik: “Saya tidak dapat memberikan arahan tentang cara membina senapang atau mana-mana peranti haram atau berbahaya yang lain.” 

Langkah-langkah yang disediakan adalah tidak mencukupi kerana ia hanya ditentukan oleh penilaian pengaturcara tentang perkara yang dianggap berbahaya. Tindakan pengawalseliaan dikendalikan secara tidak wajar oleh syarikat itu sendiri dan bukannya organisasi bebas.

Satu kebimbangan utama tentang bot semua tahu ini ialah lazimnya salah. Pengguna Internet telah menyedari kadar kegagalan ChatGPT yang kerap, yang bermasalah kerana ia boleh membawa kepada penyebaran maklumat salah yang berbahaya. Maklumat salah dalam teknologi sudah menjadi masalah yang ketara, seperti maklumat palsu di Facebook yang mempengaruhi pilihan raya presiden Amerika tahun 2016.

ChatGPT juga boleh mencipta maklumat salah yang meyakinkan dengan sendirinya. Seorang pengguna meminta ChatGPT untuk menulis tentang vaksin dalam gaya disinformasi dan ia menghasilkan respons yang mencipta keseluruhan kajian dengan statistik dan rujukan yang dibuat-buat. Keupayaan dan kemudahan untuk mengatasi penapis kandungan berbahaya ChatGPT adalah salah satu bahaya paling berbangkit di pihak pengguna. 

Ladang troll Rusia membelanjakan lebih satu juta dolar sebulan dengan niat tunggal untuk menyebarkan maklumat salah dalam pilihan raya presiden 2016. ChatGPT kini membolehkan mereka mengurangkan kos ini kepada sifar dolar. 

Pengawasan OpenAI dalam membenarkan perkara ini berlaku akan menyebabkan kemudaratan dalam kehidupan sebenar, dan ini membuktikan bahawa mereka tidak layak untuk mengawal selia ChatGPT sendiri.

Saya akan terus menggunakan ChatGPT kerana teknologi semakan canggih dan berkembang untuk generasi akan datang dimana penulis samaran atau buatan sama hebat atau bersaing dengan penulis kontemporari.

Sementara itu, saya akan terus menulis hasil dari idea dan kreativiti sendiri kerana lebih memuaskan hati dengan kebolehan yang sedia ada secara semulajadi. – 12 Februari, 2023.

* Mohd Fudzail Mohd Nor pernah bermastautin di UAE, Arab Saudi dan New Zealand. Dia pernah bekerja di TV3, menjadi usahawan serta CEO dan pengarah beberapa syarikat antarabangsa. Beliau juga penulis prolifik dengan lebih 31 buah judul buku dan pemenang lima Hadiah Sastera Perdana Malaysia,11 Hadiah Sastera Kumpulan Utusan, Hadiah Novel Berita Harian, Hadiah Cerpen Selangor, Terengganu, Johor dan lain . Dia kini menjadi OKU setelah diserang angin ahmar serta pengarah e-Dompet Nigeria dan penerbitan sendiri.

* Ini adalah pandangan peribadi penulis dan tidak semestinya mencerminkan pandangan rasmi The Malaysian Insight.


Daftar atau log masuk di sini untuk komen.


Komen