Asisten Mater AI dan fitur pelengkapan otomatis pencarian Google berada di bawah pengawasan karena memberikan informasi palsu tentang upaya pembunuhan mantan Presiden Donald Trump baru-baru ini. Meskipun Google mengklaim sedang mencoba meningkatkan fiturnya, Meta memiliki alasan berbeda untuk menutupi upaya pembunuhan tersebut – AI-nya “berhalusinasi”.
tepi Laporan Asisten Mater AI itu terjebak dalam upaya menutup-nutupi upaya pembunuhan mantan Presiden Donald Trump. Insiden ini menimbulkan kekhawatiran mengenai keandalan respons yang dihasilkan AI terhadap peristiwa real-time dan potensi dampaknya terhadap penyebaran informasi publik.
Joel Kaplan, kepala kebijakan global Mater, membahas masalah ini dalam postingan blog perusahaan yang diterbitkan Selasa. Kaplan menggambarkan tanggapan AI sebagai “disayangkan” dan menjelaskan bahwa Meta awalnya memprogram AI-nya untuk menghindari menjawab pertanyaan tentang upaya pembunuhan. Namun, pembatasan ini kemudian dicabut setelah pengguna mulai menyadari diamnya AI mengenai masalah tersebut.
Terlepas dari konsistensi ini, Kaplan mengakui bahwa “dalam sejumlah kecil kasus, Meta AI terus memberikan jawaban yang salah, terkadang termasuk mengklaim bahwa peristiwa tersebut tidak terjadi.” Dia meyakinkan masyarakat bahwa badan tersebut “bekerja untuk segera menyelesaikan” kesalahan ini.
Meta AI tidak akan memberikan detail apa pun tentang mencoba balapan ass*ss*.
Kita menyaksikan upaya menutup-nutupi dan menekan salah satu kisah penting terbesar secara real-time
Tidak realistis. pic.twitter.com/BoBLZILp5M
— Lib TikTok (@libsofttalk) 28 Juli 2024
Kaplan mengaitkan kesalahan ini dengan fenomena yang dikenal di industri AI sebagai “halusinasi”. Istilah ini mengacu pada contoh di mana sistem AI sering kali menghasilkan informasi palsu atau tidak akurat dengan tingkat kepercayaan yang tinggi. Caplan mencatat bahwa halusinasi adalah “masalah industri yang kita lihat di semua sistem AI generatif, dan tantangan berkelanjutan mengenai bagaimana AI menangani kejadian real-time di masa depan.”
Eksekutif Meta menekankan komitmen perusahaan untuk meningkatkan sistem AI mereka, dengan mengatakan, “Seperti semua sistem AI generatif, model dapat menghasilkan keluaran yang tidak akurat atau tidak sesuai, dan model tersebut akan berkembang seiring kita mengatasi masalah ini dan meningkatkan fitur-fitur ini serta lebih banyak orang yang membagikannya.” pandangan.”
Kontroversi seputar respons AI terhadap upaya pembunuhan Trump tidak hanya sebatas penyelesaian. Google juga terlibat dalam situasi ini, karena harus membantah klaim bahwa fitur pelengkapan otomatis penelusurannya menyensor hasil terkait peristiwa. Tuduhan tersebut memicu tanggapan keras dari mantan Presiden Trump sendiri, yang menuduh kedua perusahaan tersebut mencoba mencurangi pemilu di platform sosial Truth miliknya.
Baca selengkapnya di Ujungnya ada di sini.
Lucas Nolan adalah reporter Breitbart News yang meliput isu kebebasan berpendapat dan sensor online.