SAYAIni adalah dunia online yang liar, dengan dis- dan misinformasi yang menyebar dengan cepat. Saya sedang dalam proses menulis buku tentang sejarah berita palsu, jadi saya sadar betul bahwa mengada-ada bukanlah hal baru. Namun yang baru adalah pembuat onar bisa disengaja atau tidak.
Media sosial dan web yang lebih luas telah mengubah permainan orang iseng, dan mempermudah orang lain untuk secara tidak sengaja ditipu secara online (lihat: tren aneh “selamat tinggal meta AI” yang saya tulis untuk Guardian minggu ini). Munculnya AI generatif sejak ChatGPT dirilis pada tahun 2022 telah meningkatkan risikonya. Meskipun penelitian awal menunjukkan bahwa ketakutan terbesar kita terhadap dampak deepfake yang dihasilkan AI terhadap pemilu tidak berdasar, namun lingkungan informasi secara keseluruhan masih kacau.
Apakah melihat itu berarti percaya?
Hal ini terbukti dalam data yang dikumpulkan oleh Behavioral Intelligence Group (BIT) – sebuah organisasi misi sosial yang dibentuk oleh Pemerintah Inggris – dan dibagikan kepada saya secara eksklusif untuk Techscape. Sebuah survei terhadap 2.000 orang dewasa di Inggris menyoroti betapa membingungkannya dunia internet yang liar saat ini.
Meskipun 59% dari mereka yang disurvei oleh BIT berpendapat bahwa mereka dapat menemukan informasi yang salah secara online, peneliti BIT menemukan hanya 36% yang merasa yakin. yang lain Berita palsu dapat dideteksi.
Ini merupakan masalah karena dua alasan. Pertama, kita kurang percaya pada kemampuan orang lain untuk mengidentifikasi cerita palsu. Hal lainnya adalah kesenjangan antara kemampuan kita sendiri dan kemampuan masyarakat. Jika kita benar-benar mengukur seberapa baik orang membedakan informasi yang benar dan informasi yang salah, saya kira hasilnya akan mendekati angka yang rendah dibandingkan angka yang tinggi. Singkatnya, kita berpikir kita lebih pintar dari diri kita sendiri.
Tidak percaya padaku? Untuk buku pertamaku, YouTuberSaya menugaskan survei yang dilakukan oleh YouGov untuk melihat seberapa baik masyarakat mengenali tokoh-tokoh penting di atas panggung. Tim di YouGov menyarankan agar saya memasukkan tes yang bukan semacam tes sentimental untuk mengidentifikasi proporsi orang yang bodoh, dalam nama sebenarnya. Sejumlah responden yang mengkhawatirkan mengatakan dengan yakin bahwa lembaga survei mengenal orang yang mereka temukan dan mengenal mereka dengan baik.
Sebuah informasi yang salah
Semua ini penting karena besarnya masalah misinformasi.
Tiga perempat responden survei BIT mengatakan mereka telah melihat berita palsu dalam seminggu terakhir, dengan X (yang menentang kelompok sensor konten milik Elon Musk demi kebebasan berpendapat) dan TikTok sebagai pelanggar terburuk. LinkedIn dipandang sebagai yang terburuk (tapi itu tidak sepenuhnya jelas karena banyak orang menghindari situs tersebut karena memiliki reputasi membosankan).
Terlepas dari itu, temuan ini meresahkan pihak yang melakukan penelitian tersebut. “Penelitian terbaru kami menambah bukti yang berkembang bahwa pengguna media sosial terlalu percaya diri dalam kemampuan mereka mengenali informasi yang salah,” kata Eva Kolker, kepala pasar konsumen dan bisnis di BIT. Ironisnya, hal ini malah berdampak lebih besar pada banyak orang.
Singkatnya: Jika Anda berpikir bahwa Anda lebih baik daripada orang lain dalam menemukan berita palsu, kemungkinan besar Anda sebenarnya kurang defensif – dan ternyata hal tersebut salah ketika Anda (mau tidak mau) menemukannya secara online.
Apa yang harus dilakukan?
Nah, salah satu startup memberdayakan pengguna untuk lebih sadar akan bahaya berita palsu dan dampaknya jika menyebarkannya ke lingkaran sosial mereka. Bola salju segera membesar berkat mentalitas massa yang dimediasi oleh algoritma media sosial seperti postingan Goodbye Meta AI. Jadi penting untuk berpikir dua kali dan mengklik sekali. (Di bagian ini saya menguraikan cara terbaik untuk memerangi ancaman terhadap data kita.)
Namun Golkar merasa hal itu tidak cukup. “Banyak upaya kami untuk meningkatkan keamanan online berfokus pada peningkatan pengetahuan dan keterampilan pengguna individu,” katanya. “Yang penting, penelitian kami menunjukkan bahwa ada keterbatasan yang melekat pada efektivitas pendekatan ini”.
“Kita tidak bisa hanya mengandalkan individu untuk mengubah perilakunya. Untuk benar-benar memerangi misinformasi, platform media sosial juga perlu mengambil tindakan, dan regulator serta pemerintah perlu turun tangan untuk menyamakan kedudukan.
Apakah sudah waktunya untuk campur tangan?
BIT menyampaikan rekomendasinya kepada pemerintah dan platform media sosial untuk memerangi informasi palsu dan menyesatkan. Yang paling utama adalah menandai postingan yang berisi informasi palsu segera setelah ditemukan, dan mencoba memberi informasi kepada publik sebelum membagikannya. Sebagai penghargaan bagi Meta, hal itu dilakukan dengan tren Selamat Tinggal Meta AI, menambahkan label pada postingan yang menunjukkan bahwa informasi tersebut salah.
BIT juga merekomendasikan agar situs lebih ketat dalam menentukan jumlah konten legal namun berpotensi membahayakan yang mereka tampilkan. Teori konspirasi merajalela di lingkungan informasi yang buruk, dan BIT menyatakan bahwa pendekatan standar Silicon Valley – sinar matahari adalah disinfektan terbaik – tidak akan berhasil.
Kecuali satu peristiwa. Rekomendasi ketiga mereka adalah pemeringkatan publik berkala mengenai seberapa banyak konten palsu atau berbahaya yang terdapat di setiap situs.
Sulit untuk mengatakan apakah semua ini akan berhasil. Saya telah melihat ilmu pengetahuan akhir-akhir ini dengan penelitian dan studi seperti BIT karena berbagai alasan, dan tampaknya setiap intervensi positif memiliki kekurangannya. Namun jika tren selamat tinggal meta AI yang menjadi viral telah menunjukkan sesuatu kepada kita, kita tidak dapat berasumsi bahwa orang dapat membedakan mana yang nyata dan mana yang tidak.
Buku terbaru Chris Stogel-Walker Bagaimana AI telah mengubah dunia. Buku berikutnya tentang sejarah berita palsu akan terbit pada musim semi 2025.