Misinformasi oleh Intelegensia Artifisial
Pengguna ini adalah peserta Tantangan menulis Social Media 4 Peace |
Intelegensia Artifisial (AI) bukanlah solusi mutlak dalam memerangi misinformasi; justru sebaliknya, teknologi AI dapat dieksploitasi untuk menciptakan dan menyebarkannya.[1] Sebagai contoh, Large Language Models (LLM) - algoritma pembelajaran mesin yang dilatih dengan sejumlah besar teks tulisan manusia untuk memahami, memprediksi, dan menghasilkan bahasa manusia - kini umum digunakan untuk menghasilkan teks yang sangat mirip dengan tulisan manusia. Konten yang dihasilkan AI menggunakan LLM semakin sulit dibedakan dari informasi yang dibuat manusia, dan dalam beberapa kasus bahkan dianggap lebih kredibel.[2] Buchanan dkk. juga mendemonstrasikan kemampuan LLM dalam menciptakan pesan misinformasi berkualitas sedang hingga tinggi dengan sedikit campur tangan manusia. Mereka juga menemukan bahwa misinformasi yang dihasilkan AI dapat menyesuaikan bahasa untuk kelompok tertentu dan terkadang menggunakan stereotip dan bahasa rasis pada topik tertentu.[3]
Teknologi AI berkontribusi pada penyebaran misinformasi melalui dua cara utama. Pertama, teknologi tersebut menyediakan cara baru untuk menciptakan dan memanipulasi berbagai bentuk konten, termasuk teks, gambar, audio, dan video. Kedua, sistem AI yang dikembangkan dan diterapkan oleh platform daring untuk meningkatkan keterlibatan pengguna memainkan peran penting dalam diseminasi misinformasi daring yang cepat dan efektif.[4]
Prevalensi Misinformasi yang Dibuat oleh AI
[sunting | sunting sumber]Perkembangan pesat dalam bidang AI generatif semakin mempermudah manipulasi konten dan penyebaran misinformasi dalam skala besar, baik oleh individu yang berniat jahat, pengguna awam, maupun pihak-pihak lainnya.[5][6]
Pada November 2022 Meta harus menonaktifkan Galactica, sebuah Model Bahasa Besar (LLM) bidang sains yang dirancang untuk "merangkum makalah akademis, menyelesaikan persoalan matematika, (dan) membuat artikel Wiki", hanya berselang tiga hari setelah perilisannya. Dalam kurun waktu singkat tersebut, Galactica terdeteksi menghasilkan hasil yang bias dan bahkan keliru, termasuk pembuatan makalah fiktif dan terkadang salah mengatribusikan referensi kepada peneliti sebenarnya.[7] Sementara, sebuah penelitian yang dilakukan di Jerman pada awal tahun 2024 terkait mutu konten mesin telusur menemukan "kecenderungan konten yang disimplifikasi, repetitif, dan kemungkinan besar dihasilkan oleh kecerdasan buatan" pada platform Google, Bing, dan DuckDuckGo.[8]
Hingga tahun 2024, NewsGuard telah mendeteksi sebanyak 1.133 situs berita dan informasi yang dibuat menggunakan AI dan beroperasi dengan tingkat pengawasan manusia yang sangat rendah atau tanpa pengawasan. Organisasi ini juga tengah memantau narasi-narasi keliru yang dihasilkan oleh perangkat berbasis kecerdasan buatan.[9] Selain itu, NewsGuard juga menemukan sebuah jaringan yang terdiri atas 167 situs daring pemberitaan yang terafiliasi dengan Rusia, berkedok sebagai media berita lokal, dan memublikasikan klaim-klaim palsu atau sangat menyesatkan terkait perang di Ukraina, dengan memanfaatkan AI sebagai alat utama produksi konten.[9]
Rujukan
[sunting | sunting sumber]- ^ "Truth, Lies, and Automation". Center for Security and Emerging Technology (dalam bahasa Inggris). doi:10.51593/2021ca003. Diakses tanggal 2024-12-20.
- ^ Kreps, Sarah E.; McCain, Miles; Brundage, Miles (2020). "All the News that's Fit to Fabricate: AI-Generated Text as a Tool of Media Misinformation". SSRN Electronic Journal. doi:10.2139/ssrn.3525002. ISSN 1556-5068.
- ^ "Truth, Lies, and Automation". Center for Security and Emerging Technology (dalam bahasa Inggris). doi:10.51593/2021ca003. Diakses tanggal 2024-12-20.
- ^ Bontridder, Noémi; Poullet, Yves (2021-01). "The role of artificial intelligence in disinformation". Data & Policy (dalam bahasa Inggris). 3: e32. doi:10.1017/dap.2021.20. ISSN 2632-3249.
- ^ Westerlund, Mika (2019-01-01). "The Emergence of Deepfake Technology: A Review". Technology Innovation Management Review. 9 (11): 39–52. doi:10.22215/timreview/1282.
- ^ "Stanford CRFM" (PDF). crfm.stanford.edu. Diakses tanggal 2024-12-20.
- ^ "Why Meta's latest large language model survived only three days online". MIT Technology Review (dalam bahasa Inggris). Diakses tanggal 2024-12-20.
- ^ published, Christian Guyton (2024-01-22). "Google search might be getting worse - and AI threatens to ruin it entirely". TechRadar (dalam bahasa Inggris). Diakses tanggal 2024-12-20.
- ^ a b "Tracking AI-enabled Misinformation: Over 1100 'Unreliable AI-Generated News' Websites (and Counting), Plus the Top False Narratives Generated by Artificial Intelligence Tools". NewsGuard (dalam bahasa Inggris). Diakses tanggal 2024-12-20.