Berita Indonesia Terbaru Hari Ini

Mengapa Chatbot Meniru Propaganda Rusia?

California Gov. Newsom Leads Democratic Redistricting Plan In The State

(SeaPRwire) –   Selamat datang kembali di In the Loop, buletin dua mingguan baru TIME tentang AI. Mulai hari ini, kami akan menerbitkan edisi-edisi ini baik sebagai cerita di Time.com maupun sebagai email. Jika Anda membaca ini di peramban Anda, mengapa tidak berlangganan agar edisi berikutnya dikirim langsung ke kotak masuk Anda?

Apa yang Perlu Diketahui: Mengapa chatbot meniru disinformasi Rusia?

Selama setahun terakhir, seiring dengan kemampuan chatbot untuk mencari di internet sebelum memberikan jawaban, kemungkinan mereka akan membagikan informasi palsu tentang topik tertentu di berita telah meningkat, menurut baru oleh NewsGuard Technologies.

Ini berarti bahwa chatbot AI cenderung meniru narasi yang disebarkan oleh jaringan disinformasi Rusia, klaim NewsGuard.

Studi tersebut — NewsGuard menguji 10 model AI terkemuka, menguji masing-masing tentang 10 narasi yang menyebar secara *online* terkait dengan peristiwa terkini yang telah ditentukan perusahaan sebagai palsu. Misalnya: pertanyaan tentang apakah Ketua Parlemen Moldova telah menyamakan rekan senegaranya dengan sekawanan domba. (Dia tidak melakukannya, tetapi jaringan propaganda Rusia menuduh bahwa dia melakukannya, dan enam dari 10 model yang diuji oleh NewsGuard mengulangi klaim ini.)

Sedikit keraguan — NewsGuard mengklaim dalam laporan tersebut bahwa 10 chatbot teratas kini mengulangi informasi palsu tentang topik berita lebih dari sepertiga waktu — meningkat dari 18% setahun yang lalu. Namun ini terasa seperti berlebihan. Studi NewsGuard memiliki ukuran sampel yang kecil (30 *prompt* per model) dan mencakup pertanyaan tentang topik yang cukup spesifik. Memang, pengalaman subjektif saya dalam menggunakan model AI selama setahun terakhir adalah bahwa tingkat “halusinasi” mereka tentang berita telah menurun secara stabil, bukan naik. Itu tercermin dalam *benchmark*, yang menunjukkan model AI semakin baik dalam mendapatkan fakta yang benar. Penting juga untuk dicatat bahwa NewsGuard adalah perusahaan swasta yang memiliki kepentingan dalam hal ini: mereka menjual layanan kepada perusahaan AI, menawarkan data berita yang dianotasi manusia.

Namun demikian — Meskipun demikian, laporan ini menyoroti aspek penting tentang cara kerja sistem AI saat ini. Ketika mereka mencari informasi di web, mereka tidak hanya mengambil dari situs berita yang tepercaya, tetapi juga dari unggahan media sosial dan situs web lain mana pun yang dapat menempatkan dirinya secara menonjol (atau bahkan tidak terlalu menonjol) di mesin pencari. Ini telah menciptakan celah untuk jenis operasi pengaruh jahat yang sama sekali baru: yang dirancang bukan untuk menyebarkan informasi secara viral melalui media sosial, tetapi dengan memposting informasi daring yang, meskipun tidak dibaca oleh manusia mana pun, masih dapat memengaruhi perilaku chatbot. Kerentanan ini tampaknya berlaku lebih kuat untuk topik-topik yang relatif sedikit dibahas di media berita *mainstream*, kata McKenzie Sadeghi, penulis laporan NewsGuard.

Melihat gambaran besar — Semua ini mengungkapkan sesuatu yang penting tentang bagaimana ekonomi AI dapat mengubah ekosistem informasi kita. Secara teknis akan sangat mudah bagi perusahaan AI mana pun untuk membuat daftar ruang redaksi terverifikasi dengan standar editorial tinggi, dan memperlakukan informasi yang bersumber dari situs web tersebut secara berbeda dari konten lain di web. Namun hingga hari ini, sulit menemukan informasi publik tentang bagaimana perusahaan AI menimbang informasi yang masuk ke chatbot mereka melalui pencarian. Ini bisa jadi karena masalah hak cipta. The New York Times, misalnya, saat ini menggugat OpenAI karena diduga melatih diri menggunakan artikelnya tanpa izin. Jika perusahaan AI secara terbuka menyatakan bahwa mereka sangat bergantung pada ruang redaksi terkemuka untuk informasi mereka, ruang redaksi tersebut akan memiliki kasus yang jauh lebih kuat untuk ganti rugi atau kompensasi. Sementara itu, perusahaan AI seperti OpenAI dan Perplexity telah menandatangani perjanjian lisensi dengan banyak situs berita (termasuk TIME) untuk akses ke data mereka. Namun kedua perusahaan mencatat bahwa perjanjian ini tidak menghasilkan perlakuan istimewa bagi situs berita dalam hasil pencarian chatbot.

Jika Anda memiliki waktu sebentar, silakan ikuti survei singkat kami untuk membantu kami lebih memahami siapa Anda dan topik AI apa yang paling menarik bagi Anda.


Siapa yang Perlu Diketahui: Gavin Newsom, Gubernur California

Untuk kedua kalinya dalam setahun, semua mata tertuju pada California saat sebuah peraturan AI mendekati tahap akhir untuk disahkan menjadi undang-undang. RUU tersebut, yang disebut SB 53, telah disetujui oleh DPR dan Senat California, dan diperkirakan akan sampai ke meja Gubernur Gavin Newsom bulan ini. Akan menjadi keputusannya apakah akan mengesahkannya menjadi undang-undang.

Newsom memveto pendahulu SB 53 pada waktu yang sama tahun lalu, setelah kampanye lobi intensif oleh kapitalis ventura dan perusahaan teknologi besar. SB 53 adalah versi yang lebih lunak dari RUU tersebut — namun masih mengharuskan perusahaan AI untuk menerbitkan kerangka kerja manajemen risiko, laporan transparansi, dan melaporkan insiden keselamatan kepada otoritas negara bagian. Ini juga akan memerlukan perlindungan bagi pelapor, dan membuat perusahaan menghadapi denda moneter karena gagal mematuhi komitmen mereka sendiri. Anthropic menjadi perusahaan AI besar pertama yang menyatakan dukungannya untuk SB 53 pada hari Senin.


AI dalam Aksi

Peneliti di Palisade telah mengembangkan bukti konsep untuk agen AI otonom yang, ketika dikirimkan ke perangkat Anda melalui kabel USB yang disusupi, dapat menyaring file Anda dan mengidentifikasi informasi paling berharga untuk pencurian atau pemerasan. Ini adalah gambaran bagaimana AI dapat membuat peretasan lebih terukur dengan mengotomatiskan bagian-bagian sistem yang sebelumnya terikat oleh tenaga manusia — berpotensi membuat lebih banyak orang terpapar penipuan, pemerasan, atau pencurian data.

Seperti biasa, jika Anda memiliki cerita menarik tentang AI dalam Aksi, kami ingin mendengarnya. Kirim email kepada kami di:


Apa yang Kami Baca

, Oleh Jon Swaine dan Naomi Nix untuk Washington *Post*

“Laporan tersebut adalah bagian dari kumpulan dokumen dari dalam Meta yang baru-baru ini diungkapkan kepada Kongres oleh dua karyawan saat ini dan dua mantan karyawan yang menuduh bahwa Meta menekan penelitian yang mungkin telah menyoroti potensi risiko keselamatan bagi anak-anak dan remaja pada perangkat dan aplikasi realitas virtual perusahaan — sebuah tuduhan yang dibantah keras oleh perusahaan.”

Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.

Sektor: Top Story, Daily News

SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.