Manusia benar-benar mulai berpikir tentang kemungkinan berbagi planet kita dengan entitas non-jasmani yang jauh lebih pintar. Hasil tersebut menimbulkan banyak pertanyaan besar: Bagaimana kita mulai membangun hubungan baik dengan AI baik di laboratorium maupun badan pengelola kita? Bagaimana kita melatih mereka untuk membuat penemuan dan membantu menyelesaikan konflik dengan mempertimbangkan nilai-nilai kemanusiaan?
Pertanyaan-pertanyaan sulit seperti inilah yang dihadapi oleh mantan CEO Google Eric Schmidt, mantan CEO Microsoft Craig Mundy, dan mantan Menteri Luar Negeri Henry Kissinger dalam buku baru mereka. Kejadian: Kecerdasan Buatan, Harapan, dan Jiwa Manusia. Saya berbicara dengan Schmidt tentang buku tersebut dan kolaborasinya dengan Kissinger, yang mengerjakan buku tersebut hingga kematiannya pada tanggal 29 November 2023—hampir tepat satu tahun setelah ChatGPT diterbitkan.
Judul buku ini memiliki nuansa alkitabiah. Bisakah Anda memberi tahu saya tentang pilihan nama?
Henry, Dr. Kissinger, selalu menyukai judul pendek. Sayangnya dia meninggal sebelum kita dapat memilih gelar ini. Dia sangat tertarik dengan kelahiran kembali sebagai manusia, jika Anda mau. Jadi alasan kami memasang subjudul “AI, Harapan, dan Jiwa Manusia” adalah karena memang begitulah cara kerja umat manusia. Munculnya kecerdasan non-manusia yang menyaingi kecerdasan manusia adalah sebuah masalah yang sangat besar. Mungkin bukan tahun ini, tapi 10 atau 20 tahun ke depan.
Apakah Dr. Kissinger mempunyai “momen aha” yang memicu ketertarikannya pada teknologi ini?
Kami berada di Konferensi Bilderberg dan saya meyakinkan dia untuk mendengarkan pidato Demis Hassabis. Dengan Henry, pikirannya selalu berbeda dengan pikiran orang lain. Jadi dia tidak mendengar teknologi yang Demis dengar. Dia mendengar definisi baru tentang realitas. Dan reaksi langsungnya adalah tidak mempercayakan masa depan kita pada kita. Ia berpandangan bahwa secara kolektif kita tidak boleh membiarkan orang-orang teknologi memikirkan hal ini sendiri. Kita boleh menciptakannya, tapi kita harus sangat jeli.
Dan, seperti yang Anda bahas di buku ini, kita mungkin memerlukan kecerdasan buatan baru untuk membantu kita memantau AI.
Aturan praktisnya adalah Anda tidak akan berhasil kecuali AI memeriksa AI. Dan hal ini memiliki beberapa implikasi, karena dengan mampu memeriksa sesuatu berarti Anda setidaknya sama pintarnya dengan apa yang Anda periksa. Ketika sistem menemukan sesuatu yang baru. . . bagaimana kamu tahu apa isinya? Mungkin itu berkembang menjadi jahat pada saat yang sama dan Anda tidak menanyakan pertanyaan yang jahat (selama pengujian keamanan). Perusahaan menghabiskan banyak waktu untuk hal ini, dan mereka memiliki banyak proses manual, dan mereka menggunakan banyak orang pintar untuk memeriksanya, namun hal ini tidak akan berhasil pada akhirnya.
Tampak bagi saya bahwa Anda dan Craig dapat bekerja dengan sejumlah orang dari berbagai disiplin ilmu untuk menulis buku seperti ini. Mengapa merupakan pasangan alami bagi dua ahli teknologi dan pakar hubungan internasional terkenal untuk merenungkan topik ini?
Buku ini menghabiskan cukup banyak waktu untuk berbicara tentang kekuasaan, karena itulah yang sangat dipahami Henry. Bagaimana kekuasaan akan dilaksanakan di era kecerdasan buatan? Jadi, misalnya, cukup jelas bahwa orang yang melakukan (AI) sendiri akan menjadi kaya. Negara-negara yang melakukan hal ini akan menjadi sangat kaya – Amerika Serikat dan Tiongkok akan menjadi sangat kaya karenanya. Mengapa? Karena mereka membangunnya. Lalu apa yang terjadi dengan Eropa? Apakah ini merupakan perbedaan lain antara model sosial Eropa dan model kapitalis Amerika?
Namun kini kita menghadapi persaingan antara model otokratis Tiongkok dan model Amerika. Di dunia (teknologi) saya, ada perdebatan antara sentralisasi dan desentralisasi. Dalam ilmu politik, terdapat perdebatan antara kekuasaan oleh banyak orang dan kekuasaan oleh segelintir orang. Saya selalu berasumsi bahwa model Amerika akan menang, namun ada skenario yang sah, yang mengatakan bahwa efisiensi lebih penting daripada kebebasan. Tiongkok akan menggunakan teknologi ini untuk memastikan bahwa tidak ada tantangan terhadap pemerintahan mereka. Dan saya tidak berpikir bertahun-tahun yang lalu bahwa hal itu akan terjadi. Saya tidak berpikir teknologi akan memungkinkan sentralisasi seperti itu. Sentralisasi memiliki manfaatnya, dan sistem AI yang besar ini sebenarnya tersentralisasi saat ini. Hal ini tidak berarti bahwa mereka akan selalu terpusat.
Bukankah perangkat lunak sumber terbuka, menurut definisi, merupakan sistem terdesentralisasi?
Minggu ini ada dua hasil dari Tiongkok. Yang satu dipanggil Ratu (Alibaba) dan satu lagi disebut Hunyuan (Tencent). Dan Hunyuan tampaknya lebih baik dari itu Hubungi 3.1 405B. Sekarang ini secara teknis disebut model beban terbuka. Saya berasumsi Tiongkok akan tertinggal beberapa tahun di belakang Amerika karena keterbatasan chip, dan sejujurnya, karena mereka tidak terorganisir. Namun sepertinya tahun lalu Tiongkok memutuskan untuk berinvestasi berlebihan di bidang ini karena mereka memahami betapa pentingnya kepemimpinan AI dan kepemimpinan sains dalam bisnis dan sebagainya. Jadi sangat mungkin bahwa persaingan antara Tiongkok dan AS sebenarnya bukan soal kekuatan militer, namun lebih pada jalan menuju AGI dan jalan menuju intelijen umum.
Craig mengatakan satu-satunya alasan mengapa hal ini bisa menjadi buruk atau menjadi lebih buruk adalah jika kita malas melakukan rekayasa, kebijakan, atau pengendalian proliferasi. Bisakah Anda mempelajari masalah proliferasi?
Saya akan memberi Anda sebuah contoh. Anda memiliki salah satu model yang sangat mahal dan kuat ini dan seseorang mencurinya. Dan mereka menaruhnya di hard drive lalu menaruhnya di web gelap dan semua orang punya akses ke sana. Jadi itu hanyalah eksfiltrasi nyata (mencuri data sensitif dari komputer atau jaringan) data. Perusahaan yang merugi jelas akan kecewa dengan uangnya. Namun masalah sebenarnya adalah materi ini kemudian dapat digunakan untuk, misalnya, serangan biologis, serangan finansial, atau serangan dunia maya. Jadi industri ini banyak berbicara tentang masalah eksfiltrasi dan serangan yang pada dasarnya bersifat permusuhan terhadap model untuk melanggarnya dan seterusnya. Cukup jelas bagi saya bahwa kita akan memiliki setidaknya satu kelompok teroris yang akan mencoba menggunakan hal-hal ini untuk melakukan kejahatan di masa depan, dan pada saat itulah kita sebaiknya bersiap.
Apa yang harus dilakukan pemerintah saat ini untuk mengawasi teknologi ini? Ada banyak tekanan dari industri untuk menghentikan RUU AI di California, yang menetapkan beberapa persyaratan keamanan dan transparansi dasar bagi pengembang model perbatasan besar. Argumen utamanya adalah masih terlalu dini untuk menetapkan peraturan seperti itu dan risiko mematikan teknologi baru.
Itu sikap saya. Menurut saya, hal ini bertujuan baik, namun pada awalnya peraturan tersebut tidak tepat. Hal ini harus dilakukan di tingkat AS, bukan di tingkat negara bagian. Yang lebih penting lagi, menurut saya kita belum berada pada titik di mana pemerintah perlu meminta kita (industri teknologi) untuk berhenti. Industri ini mengembangkan hal-hal ini dengan sangat cepat. Orang-orang sangat menyadari masalah yang Anda dan saya diskusikan dan sebelum Anda melarangnya, mungkin Anda harus melihat apakah solusi (yang ditemukan oleh perusahaan teknologi) berhasil. Ada konsensus industri bahwa masalah penjelasan dan masalah halusinasi akan teratasi dalam beberapa tahun ke depan. Orang-orang bekerja keras untuk itu.
Maksud saya, begitulah sifat cara kerja teknologi. Jika kita melarang mobil sebelum digunakan secara besar-besaran, kita akan berurusan dengan kuda. Dan mobil jelas berbahaya karena dapat menabrak orang, namun kami telah menemukan solusi berbeda, termasuk kantung udara, SIM, dan sebagainya.
Relevansi argumen dalam buku ini tergantung pada gagasan bahwa penelitian saat ini akan membawa kita pada AGI. Apa pendapat Anda tentang narasi saat ini yang menyatakan bahwa peningkatan data pelatihan dan daya komputasi tidak lagi memberikan peningkatan besar dalam kecerdasan seperti dulu?
Ada beberapa bukti bahwa kami menemukan sebagian besar data tersedia untuk pelatihan normal. Jadi sekarang Anda harus mulai menghasilkan data dan modelnya semakin sulit untuk dibuat. Jadi ada beberapa bukti bahwa ada perlambatan. Namun cara kerja pers adalah mereka mengatakan “ada perlambatan”. (Mereka) melihatnya sebagai mekanisme yang mencapai batas alaminya tanpa lebih banyak data atau algoritma yang lebih baik. Sekarang, saya dapat meyakinkan Anda bahwa lebih banyak data akan datang karena ini sintetis, dan saya dapat meyakinkan Anda bahwa lebih banyak algoritma karena semuanya berjalan pada agen dan agen adalah permainan bola yang benar-benar baru. Jadi saya tidak menolak judul tersebut. Saya rasa ada beberapa bukti mengenai hal tersebut, namun bukan berarti lonjakan AI saat ini berhenti atau melambat. Ini hanya berarti bahwa alat persaingan sedang berubah.