Liputan6.com, Jakarta – Kecerdasan buatan atau artificial intelligence (AI) merupakan teknologi mempermudah hidup manusia apabila dimanfaatkan dengan baik. Sayangnya, AI teryata juga dapat mempermudah aksi kejahatan siber melalui chatbot tiruan ChatGPT.
Chatbot tiruan dengan fitur kriminal ini muncul di dark web dan dapat diakses dengan biaya bulanan dirasa masuk akal, termasuk pembayaran satu kali selayaknya ChatGPT.
Dikutip dari New York Post, Rabu (15/08/2023), perusahaan keamanan siber SlashNext menemukan berbagai chatbot dark web, termasuk DarkBERT, WormGPT, dan FraudGPT.
Chatbot itu disebut mampu membuat penipuan phishing dan pesan palsu melalui gambar sangat meyakinkan.
Dengan demikian, penjahat siber akan memanfaatkan chatbot mereka untuk membuat akun samaran hingga meminta bank memberikan informasi penting nasabahnya kepada mereka.
Jenis penipuan ini bukan hal baru dalam dunia maya, tapi Lisa Palmer, seorang ahli strategi AI untuk perusahaan konsultan AI Leaders, memperingatkan penipuan ini sekarang lebih mudah dilakukan karena kecerdasan buatan.
“Ini adalah jenis kejahatan yang dapat disesuaikan dengan sejumlah besar target sekaligus. Para penipu dapat merancang kampanye massal dengan tingkat personalisasi yang tinggi, alih-alih membuatnya satu per satu,” katanya.
Menurut pakar keamanan siber, kemampuan meniru identitas merupakan masalah yang sedang jamak tersebut. Terlebih, dengan gambar dan suara palsu, jenis penipuan ini tidak hanya rentan bagi orang tua, tapi juga instansi besar.
Menurut Palmer, penjahat dapat mengumpulkan data terkait bisnis tertentu yang memungkinkan mereka melakukan ancaman yang disertai dengan permintaan tebusan hingga perusakaan reputasi.
Meskipun demikian, Palmer akui tak akan mudah untuk menuntut pihak chatbot AI ilegal ini ke lembaga hukum.
Selain itu, chatbot AI ilegal ini juga bisa memudahkan seseorang tanpa keterampilan teknologi tinggi melakukan tindakan ilegal dalam dunia siber. Berbeda dari chatbot resmi seperti ChatGPT yang bisa membatasi perintah ilegal dari penggunanya.