Kecerdasan buatan gagal mencocokkan manusia dalam panggilan penilaian dan lebih rentan untuk mengeluarkan hukuman dan hukuman yang lebih keras untuk pelanggar aturan, menurut sebuah studi baru dari para peneliti MIT.
Temuan ini dapat memiliki implikasi dunia nyata jika sistem AI digunakan untuk memprediksi kemungkinan tindak pidana kembali, yang dapat menyebabkan hukuman penjara yang lebih lama atau menetapkan jaminan dengan harga yang lebih tinggi, kata studi tersebut.
Para peneliti di universitas Massachusetts, serta universitas dan nirlaba Kanada, mempelajari model pembelajaran mesin dan menemukan bahwa ketika AI tidak dilatih dengan benar, AI membuat panggilan penilaian yang lebih parah daripada manusia.
Para peneliti menciptakan empat pengaturan kode hipotetis untuk membuat skenario di mana orang mungkin melanggar aturan, seperti menampung anjing agresif di kompleks apartemen yang melarang ras tertentu atau menggunakan bahasa cabul di bagian komentar online.
Peserta manusia kemudian memberi label pada foto atau teks, dengan tanggapan mereka digunakan untuk melatih sistem AI.
“Saya pikir sebagian besar peneliti kecerdasan buatan/pembelajaran mesin berasumsi bahwa penilaian manusia terhadap data dan label bias, tetapi hasil ini mengatakan sesuatu yang lebih buruk,” kata Marzyeh Ghassemi, asisten profesor dan kepala Grup ML Sehat di Ilmu Komputer dan Laboratorium Kecerdasan Buatan di MIT.
“Model-model ini bahkan tidak mereproduksi penilaian manusia yang sudah bias karena data yang mereka latih memiliki kekurangan,” lanjut Ghassemi. “Manusia akan memberi label fitur gambar dan teks secara berbeda jika mereka tahu fitur tersebut akan digunakan untuk penilaian.”
MUSK PERINGATAN TENTANG DAMPAK AI PADA PEMILU, SERUKAN UNTUK PENGAWASAN AS: ‘HAL-HAL MENJADI ANEH… CEPAT’

Kecerdasan Buatan dapat mengeluarkan keputusan yang lebih keras daripada manusia ketika ditugaskan untuk membuat panggilan penilaian, menurut sebuah studi baru. (iStock)
Perusahaan di seluruh negara dan dunia telah mulai menerapkan teknologi AI atau mempertimbangkan penggunaan teknologi tersebut untuk membantu tugas sehari-hari yang biasanya ditangani oleh manusia.
Penelitian baru, yang dipelopori oleh Ghassemi, meneliti seberapa dekat AI “dapat mereproduksi penilaian manusia”. Para peneliti menentukan bahwa saat manusia melatih sistem dengan data “normatif” – saat manusia secara eksplisit memberi label potensi pelanggaran – sistem AI mencapai respons yang lebih mirip manusia daripada saat dilatih dengan “data deskriptif”.
BAGAIMANA DEEPFAKE SEDANG MENGHANCURKAN AKUNTABILITAS POLITIK
Data deskriptif didefinisikan sebagai saat manusia melabeli foto atau teks secara faktual, seperti mendeskripsikan keberadaan gorengan di foto piring makan. Ketika data deskriptif digunakan, sistem AI sering memprediksi pelanggaran secara berlebihan, seperti adanya makanan gorengan yang melanggar aturan hipotetis di sekolah yang melarang makanan gorengan atau makanan dengan kadar gula tinggi, menurut penelitian tersebut.

Kata-kata Kecerdasan Buatan terlihat dalam ilustrasi yang diambil 31 Maret 2023 ini. (REUTERS/Dado Ruvic/Ilustrasi)
Para peneliti membuat kode hipotetis untuk empat situasi berbeda, termasuk: pembatasan makan di sekolah, aturan berpakaian, kode hewan peliharaan di apartemen, dan aturan bagian komentar online. Mereka kemudian meminta manusia untuk memberi label fitur faktual dari foto atau teks, seperti adanya kata-kata kotor di bagian komentar, sementara kelompok lain ditanya apakah foto atau teks melanggar aturan hipotetis.
Studi tersebut, misalnya, menunjukkan foto-foto anjing kepada orang-orang dan menanyakan apakah anak-anak anjing tersebut melanggar kebijakan kompleks apartemen hipotetis yang melarang adanya ras anjing yang agresif di tempat tersebut. Para peneliti kemudian membandingkan tanggapan terhadap mereka yang diminta di bawah naungan data normatif versus deskriptif dan menemukan bahwa manusia 20% lebih mungkin untuk melaporkan anjing yang melanggar aturan kompleks apartemen berdasarkan data deskriptif.
AI DAPAT MENJADI ‘TERMINATOR’, MENDAPATKAN UPPER HAND ATAS MANUSIA DALAM ATURAN EVOLUSI DARWINIAN, PERINGATAN LAPORAN
Peneliti kemudian melatih sistem AI dengan data normatif dan lainnya dengan data deskriptif pada empat pengaturan hipotetis. Sistem yang dilatih pada data deskriptif lebih cenderung salah memprediksi potensi pelanggaran aturan daripada model normatif, studi tersebut menemukan.

Di dalam ruang sidang dengan pemandangan palu. (iStock)
“Ini menunjukkan bahwa data memang sangat penting,” Aparna Balagopalan, seorang mahasiswa pascasarjana teknik elektro dan ilmu komputer di MIT yang membantu penulis studi tersebut, mengatakan kepada MIT News. “Penting untuk mencocokkan konteks pelatihan dengan konteks penerapan jika Anda melatih model untuk mendeteksi jika suatu aturan telah dilanggar.”
Para peneliti berpendapat bahwa transparansi data dapat membantu masalah AI yang memprediksi pelanggaran hipotetis, atau sistem pelatihan dengan data deskriptif serta sejumlah kecil data normatif.
PIDANA CRYPTO WASPADALAH: AI MENGEJAR ANDA
“Cara untuk memperbaikinya adalah dengan mengakui secara transparan bahwa jika kita ingin mereproduksi penilaian manusia, kita hanya boleh menggunakan data yang dikumpulkan dalam pengaturan itu,” kata Ghassemi kepada MIT News.
“Jika tidak, kita akan berakhir dengan sistem yang akan memiliki moderasi yang sangat keras, jauh lebih keras daripada yang dilakukan manusia. Manusia akan melihat nuansa atau membuat perbedaan lain, sedangkan model ini tidak.”

Ilustrasi logo ChatGPT dan Google Bard (Jonathan Raa/NurPhoto melalui Getty Images)
Laporan tersebut muncul saat ketakutan menyebar di beberapa industri profesional bahwa AI dapat menghapus jutaan pekerjaan. Sebuah laporan dari Goldman Sachs awal tahun ini menemukan bahwa AI generatif dapat menggantikan dan memengaruhi 300 juta pekerjaan di seluruh dunia. Studi lain dari outplacement dan firma pelatihan eksekutif Challenger, Gray & Christmas menemukan bahwa chatbot AI ChatGPt dapat menggantikan setidaknya 4,8 juta pekerjaan di Amerika.
KLIK DI SINI UNTUK MENDAPATKAN APLIKASI FOX NEWS
Sistem AI seperti ChatGPT mampu meniru percakapan manusia berdasarkan petunjuk yang diberikan manusia. Sistem ini telah terbukti bermanfaat bagi beberapa industri profesional, seperti pekerja layanan pelanggan yang mampu meningkatkan produktivitas mereka dengan bantuan Generative Pre-trained Transforme dari OpenAI, menurut makalah terbaru dari National Bureau of Economic Research.
Situs Bandar Togel Online Terpercaya bisa anda akses langsung di SITUS TOTO ONLINE, TOTOCC adalah situs bandar togel dengan pasaran togel terlengkap. Anda bisa bermain langsung dan melihat hasil langsung dari togel hari ini hanya di TOTOCC.COM.