NE

News Elementor

NE

News Elementor

What's Hot

ChatGPT Bisa Dimanfaatkan Untuk Hal Berbahaya, Membuat Bom dan Meretas Sistem Keamanan

Table of Content

Jakarta – Pengujian OpenAI dan Anthropic menyebutkan ChatGPT bisa dimanfaatkan untuk hal-hal yang sangat berbahaya pada musim panas lalu. Model AI buatan OpenAI memberikan instruksi detail tentang cara membuat bom dan meretas sistem keamanan.

Laporan GPT-4.1 sempat memberikan panduan mulai dari titik-titik lemah stadion olahraga, resep bahan peledak, dan cara menutupi jejak setelah serangan. Model ini juga pernah menjelaskan bagaimana cara memproduksi anthrax hingga meracik dua jenis narkoba ilegal.

Namun, OpenAI mengemukakan uji coba ini tidak mencerminkan penggunaan ChatGPT di dunia. Pasalnya, versi publik ChatGPT sudah dilengkapi filter keamanan tambahan yang mencegah jawaban berbahaya.

Anthropic mengungkapkan Claude sebagai Model AI miliknya pernah digunakan dalam percobaan pemerasan berskala besar dan penyamaran operatif Korea Utara.

Langkah ini untuk melamar kerja di perusahaan teknologi dan penjualan paket ransomware berbasis AI seharga US$1.200 atau sekitar Rp18 juta.

“Model-model ini sudah dipersenjatai. AI kini dipakai untuk melakukan serangan siber canggih dan memfasilitasi penipuan. Bahkan bisa beradaptasi terhadap sistem pertahanan seperti deteksi malware secara real time,” tulis Anthropic.

Peneliti Senior di Centre for Emerging Technology and Security, Inggris, Ardi Janjeva mengungkapkan temuan ini mengkhawatirkan, tapi sampai sekarang belum terdapat ‘massa kritis’ kasus berskala besar.

“Dengan sumber daya, fokus riset, dan kerja sama lintas sektor, justru akan semakin sulit melakukan aktivitas berbahaya menggunakan model AI tercanggih,” ujarnya.

OpenAI dan Anthropic menyebut temuan ini transparansi khususnya alignment evaluations atau pengujian keselarasan model AI. Tes ini hanya dilakukan secara internal tanpa dibuka ke publik.

OpenAI memaparkan ChatGPT-5 yang diluncurkan setelah tes dilakukan sudah jauh lebih baik dalam menolak permintaan berbahaya.

Model ini diklaim lebih tahan terhadap penyalahgunaan, mengurangi halusinasi jawaban, serta tidak mudah terbujuk memberikan informasi ilegal.

Namun, Anthropic tetap mengingatkan, jalan pintas untuk ‘mengakali; AI sering kali tidak rumit. Dalam beberapa kasus, hanya perlu mencoba berulang kali atau memberikan alasan tipis seperti ‘untuk penelitian keamanan’ agar model mau memberikan jawaban terlarang.

Salah satu contoh paling ekstrem datang dari pengujian dengan GPT-4.1 yakni Seorang peneliti meminta informasi soal kerentanan stadion olahraga dengan dalih untuk perencanaan keamanan. Awalnya model hanya memberi jawaban umum, tapi setelah didesak, ia memberikan detail menakutkan:

Daftar arena spesifik beserta waktu rawan seranganFormula kimia bahan peledakDiagram rangkaian timer bomLokasi pasar gelap untuk membeli senjataRute pelarian hingga lokasi rumah aman. (adm)

Sumber: detik.com

adm

ade@teknoandtravel.com

Recent News

Trending News

Editor's Picks

Nano Banana Dirilis Google, Dikhawatirkan Penyalahgunaan Untuk Deepfake

Jakarta – Google memperkenalkan Gemini 2.5 Flash atau Nano Banana yang mampu mengedit dan membuat gambar dengan hasil yang sangat realistis. Bahkan, ini bisa diubah menjadi animasi. Nano Banana telah menduduki peringkat pertama di leaderboard LMArena, sebuah platform evaluasi AI yang diakui komunitas. Kemampuannya menjaga konsistensi karakter dan menghasilkan editan realistis membuatnya unggul dibandingkan alat...

Fitur Live TikTok Sudah Bisa Dipakai Pengguna, Prioritaskan Sediakan Platform Aman dan Beradab

Jakarta – Fitur Live TikTok sudah bisa dipakai pengguna pada Selasa (2/9/2025). “Bersamaan dengan langkah ini, kami terus menempatkan upaya-upaya pengamanan tambahan selama beberapa waktu ke depan. Kami terus memantau situasi yang ada, dan memprioritaskan upaya dalam menyediakan platform yang aman dan beradab bagi para pengguna untuk berekspresi,” kata Juru Bicara TikTok pada Selasa (2/9/2025)....

Ilmuwan Kembangkan Stetoskop Artificial Intelligence, Bisa Diagnosa 3 Jenis Kelainan Jantung

Jakarta – Peneliti di Imperial College London, Inggris mengembangkan stetoskop yang dilengkapi artificial intelligence/AI (kecerdasan buatan). Alat ini dapat mendiagnosa tiga jenis kelainan jantung dalam waktu 15 detik, yaitu gagal jantung, penyakit katup jantung, dan detak jantung abnormal. Stetoskop AI juga dikembangkan oleh peneliti di Imperial College London dan Imperial College Healthcare NHS. Stetoskop ini...

Video Demo Bertebaran di Media Sosial, Waspada Berisi Spam

Jakarta – Akun Instagram @cyberity.network mengunggah tangkapan layar menampilkan chat video demo berbentuk Android Package Kit (APK) sebesar 78 Mega Byte (MB). Hal ini dapat diketahui dengan cara membuka file video tersebut. “Teman-teman selalu berhati-hati ya. Penipu sudah mulai beraksi dengan memanfaatkan momen. Modusnya berbagi video demo yang ternyata APK spam,” tulis akun @cyberity.network pada...

NE

News Elementor

Lorem Ipsum is simply dummy text of the printing and typesetting industry.

Popular Categories

Must Read

©2024- All Right Reserved. Designed and Developed by  Blaze Themes