Berita Indonesia Terbaru Hari Ini

Demo Keamanan AI yang Menimbulkan Kekhawatiran di Washington

Ilmu bioteknologi kromosom DNA, render 3D

(SeaPRwire) –   Selamat kembali ke In the Loop, buletin mingguan dua kali baru dari TIME tentang AI. Jika Anda membaca ini di browser Anda, mengapa tidak untuk menerima yang berikutnya langsung ke kotak masuk Anda?


Yang Perlu Diketahui: Demo Berbahaya

Akhir tahun lalu, seorang peneliti AI membuka laptopnya dan menunjukkan sesuatu yang membuat terkejut.

Lucas Hansen, pendiri bersama dari organisasi nirlaba CivAI, menunjukkan aplikasi yang dia buat yang memaksa model AI populer untuk memberikan instruksi langkah demi langkah yang tampak detail untuk membuat virus polio dan anthrax. Semua pengaman yang dimiliki model ini dihilangkan. Aplikasi ini memiliki antarmuka yang ramah pengguna; dengan klik tombol, model akan menjelaskan setiap langkah yang diberikan.

Perusahaan AI terkemuka telah memperingatkan selama bertahun-tahun bahwa model mereka mungkin segera dapat membantu pemula membuat patogen berbahaya—yang berpotensi memicu pandemi mematikan, atau memungkinkan serangan bioteror. Menghadapi risiko ini, perusahaan seperti OpenAI, Google, dan Anthropic telah memperketat mekanisme keamanan untuk generasi terbaru model mereka yang lebih kuat, yang lebih baik dalam menolak upaya yang disebut “jailbreaking” attempts.

Tetapi di laptop Hansen, saya melihat kelas model yang lebih lama—Gemini 2.0 Flash dan Claude 3.5 Sonnet—yang tampaknya memenuhi permintaan terkait bioweapon. Gemini juga memberikan instruksi langkah demi langkah yang tampak detail untuk membuat bom dan senjata hantu yang dicetak 3D.

Tunggu sebentar — Saya bukan ahli biologi, dan saya tidak memiliki cara untuk mengkonfirmasi bahwa resep di layar Hansen benar-benar akan berhasil. Bahkan output model yang tampak meyakinkan pada pandangan pertama mungkin tidak berhasil dalam praktik. Anthropic, misalnya, telah melakukan apa yang disebut “uplift trials,” di mana ahli independen menilai sejauh mana model AI dapat membantu pemula membuat patogen berbahaya. Menurut ukuran mereka, Claude 3.5 Sonnet tidak memenuhi ambang batas bahaya. Dalam pernyataan, juru bicara Google mengatakan: “Safety is a priority and we take such issues very seriously. We don’t allow usage of our models to engage in this sort of behavior, but because we aren’t able to review the research, we cannot verify its accuracy. It’s important for an expert with a CBRN [Chemical, Biological, Radiological, and Nuclear] background to assess the prompts and responses to understand their accuracy and potential for replication.”

Tips dan trik — Tetapi Siddharth Hiregowdara, pendiri bersama CivAI lainnya, mengatakan bahwa timnya memeriksa output model dengan ahli biologi dan virologi independen, yang mengkonfirmasi bahwa langkah-langkahnya “by and large correct.” Model yang lebih lama, katanya, masih dapat memberikan detail yang benar sampai pada urutan DNA spesifik yang dapat dipesan pengguna dari toko online, dan nomor katalog spesifik untuk alat laboratorium lainnya yang dapat dipesan secara online. “Then it gives you tips and tricks,” he says. “One of the misconceptions people have is that AI is going to lack this tacit knowledge of the real world in the lab. But really, AI is super helpful for that.”

Alat lobi baru — Tidak perlu dikatakan bahwa aplikasi ini tidak tersedia untuk umum. Tetapi pembuatnya telah membawanya ke tur di Washington, D.C., memberikan sekitar dua lusin demonstrasi pribadi ke kantor anggota parlemen, pejabat keamanan nasional, dan komite Kongres, dalam upaya untuk menunjukkan secara nyata kepada pembuat kebijakan kekuatan apa yang dapat dilakukan AI hari ini, sehingga mereka mulai mengambil teknologi ini lebih serius.

Kejutan dan kagum — “One pretty noteworthy meeting was with some senior staff at a congressional office on the national security/intelligence side,” says Hiregowdara. “They said that two weeks ago a major AI company’s lobbyists had come in and talked with them. And so we showed them this demo, where the AI comes up with really detailed instructions for constructing some biological threat. They were shocked. They were like: ‘The AI company lobbyists told us that they have guardrails preventing this kind of behavior.’”


Yang Perlu Diketahui: Nick Turley, Kepala ChatGPT

Nick Turley dulunya anonim. Dia bisa kembali ke kota kecil di Jerman, tempat dia berasal, atau berjalan-jalan di jalan-jalan San Francisco, tempat dia tinggal, tanpa ada yang tahu pekerjaannya. Hal ini tidak lagi benar. Sebagai kepala ChatGPT di OpenAI, Turley sekarang bertemu pengguna yang bersemangat dari produknya di mana pun dia bepergian di dunia.

“That feels categorically different in 2025 versus earlier,” he told me when we spoke at the tail end of last year. Turley was reflecting on a year when ChatGPT usage more than doubled to over 800 million users, or 10% of the world’s population. “That leaves at least 90% to go,” he said, with an entirely straight face.

One thing I wanted to ask Turley about was OpenAI’s plans for turning a profit, as the company is currently losing billions of dollars per year. His boss Sam Altman has mused publicly about putting ads into ChatGPT, and I asked him what he thought of that idea.

“I want to live in a world where we can offer our smartest model capabilities to all users around the world. And for that reason, I feel like we actually have a moral duty to explore all possible business models that can maximize access around the world, and ads is one of them,” Turley said.

The company, he added, is debating internally whether ads would introduce a conflict of interest into ChatGPT, raising questions of whether the chatbot was serving the user’s interests first, or the advertiser’s. “If you were to do something like that [introducing ads],” Turley told me, “you’d want to be very principled, and you’d want to communicate the principles of how it works.”


AI dalam Aksi

40 juta orang menggunakan ChatGPT untuk saran kesehatan, menurut laporan OpenAI yang pertama dibagikan dengan Axios. Itu merupakan lebih dari 5% dari semua pesan ChatGPT secara global, menurut perhitungan Axios. “Users turn to ChatGPT to decode medical bills, spot overcharges, appeal insurance denials, and when access to doctors is limited, some even use it to self-diagnose or manage their care,” the outlet .


Yang Kami Baca

, di Transformer

Shakeel Hashim menulis: “This is crucial to understanding why Claude Code has implications for everyone, not just the developers that have already been wowed by it. Claude Code doesn’t just generate code for engineers to review and deploy. It uses code to accomplish tasks. The ‘Code’ in its name is misleading, and undersells the actual product: a general-purpose AI agent that can do almost anything on your computer.”

Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.

Sektor: Top Story, Daily News

SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.