• Sun. Sep 24th, 2023

Berita Teknologi

Berita Terbaru, Totocc, Togelcc

Pakar teknologi menguraikan empat cara AI dapat menyebabkan bencana di seluruh dunia

Pakar teknologi, miliarder Lembah Silikon, dan orang Amerika sehari-hari telah menyuarakan keprihatinan mereka bahwa kecerdasan buatan dapat lepas kendali dan menyebabkan kejatuhan umat manusia. Sekarang, para peneliti di Center for AI Safety telah merinci dengan tepat apa risiko “bencana” yang ditimbulkan AI terhadap dunia.

“Dunia seperti yang kita tahu ini tidak normal,” tulis para peneliti dari Pusat Keamanan AI (CAIS) dalam makalah baru-baru ini berjudul “Tinjauan Risiko Bencana AI.” “Kami menerima begitu saja bahwa kami dapat berbicara secara instan dengan orang-orang yang jauhnya ribuan mil, terbang ke sisi lain dunia dalam waktu kurang dari sehari, dan mengakses kumpulan besar pengetahuan yang terakumulasi pada perangkat yang kami bawa di saku kami.”

Realitas itu akan “tak terbayangkan” oleh orang-orang berabad-abad yang lalu dan tetap tidak masuk akal bahkan beberapa dekade yang lalu, kata surat kabar itu. Sebuah pola dalam sejarah telah muncul dari “percepatan pembangunan,” catat para peneliti.

“Ratusan ribu tahun berlalu antara waktu Homo sapiens muncul di Bumi dan revolusi pertanian,” lanjut para peneliti. “Kemudian, ribuan tahun berlalu sebelum revolusi industri. Sekarang, hanya beberapa abad kemudian, revolusi kecerdasan buatan (AI) dimulai. Perjalanan sejarah tidak konstan—ia semakin cepat.”

CAIS adalah organisasi nirlaba teknologi yang bekerja untuk mengurangi “risiko skala sosial yang terkait dengan AI dengan melakukan penelitian keselamatan, membangun bidang peneliti keamanan AI, dan mengadvokasi standar keselamatan,” sementara juga mengakui bahwa kecerdasan buatan memiliki kekuatan untuk memberi manfaat bagi dunia.

PARA AHLI MEMPERINGATKAN KECERDASAN BUATAN DAPAT MENYEBABKAN ‘PEMANAHAN’

tanda AI

Para ahli berpendapat perbedaan antara investasi AI di China dan AS adalah fakta bahwa model Amerika didorong oleh perusahaan swasta sedangkan China mengambil pendekatan pemerintah. (JOSEP LAGO/AFP melalui Getty Images)

Pemimpin CAIS di balik penelitian ini, termasuk direktur nirlaba Dan Hendrycks, membagi empat kategori yang merangkum sumber utama risiko bencana AI, yang meliputi: penggunaan berbahaya, ras AI itu sendiri, risiko organisasi, dan AI nakal.

“Seperti halnya semua teknologi canggih, AI harus ditangani dengan tanggung jawab besar untuk mengelola risiko dan memanfaatkan potensinya demi kemajuan masyarakat,” tulis Hendrycks dan rekannya Mantas Mazeika dan Thomas Woodside. “Namun, ada informasi yang dapat diakses terbatas tentang bagaimana risiko AI bencana atau eksistensial dapat terjadi atau ditangani.”

BALAPAN ARMS GENERASI BERIKUTNYA DAPAT MENYEBABKAN PERISTIWA ‘PEMANAHAN’: TECH EXECUTIVE

Penggunaan Berbahaya

peretas AI

Peretas kecerdasan buatan di belakang komputer. (Berita Rubah)

Studi dari para ahli CAIS mendefinisikan penggunaan AI yang berbahaya sebagai ketika aktor jahat menggunakan teknologi tersebut untuk menyebabkan “kerusakan yang meluas”, seperti melalui bioterorisme, misinformasi dan propaganda, atau “penyebaran agen AI yang tidak terkendali secara sengaja”.

Para peneliti menunjuk pada sebuah insiden di Jepang pada tahun 1995 ketika kultus hari kiamat Aum Shinrikyo menyebarkan cairan tidak berbau dan tidak berwarna pada gerbong kereta bawah tanah di Tokyo. Cairan tersebut akhirnya membunuh 13 orang dan melukai 5.800 orang lainnya dalam upaya sekte untuk memulai akhir dunia.

Maju cepat hampir 30 tahun, AI berpotensi digunakan untuk membuat senjata biologis yang dapat berdampak buruk pada umat manusia jika aktor jahat menguasai teknologi tersebut. Para peneliti CAIS mengajukan hipotesis di mana tim peneliti membuka sumber “sistem AI dengan kemampuan penelitian biologis” yang dimaksudkan untuk menyelamatkan nyawa, tetapi sebenarnya dapat digunakan kembali oleh aktor jahat untuk membuat senjata biologis.

AI DAPAT MENJADI ‘TERMINATOR’, MENDAPATKAN UPPER HAND ATAS MANUSIA DALAM ATURAN EVOLUSI DARWINIAN, PERINGATAN LAPORAN

“Dalam situasi seperti ini, hasilnya mungkin ditentukan oleh kelompok penelitian yang paling tidak menghindari risiko. Jika hanya satu kelompok penelitian yang menganggap manfaatnya lebih besar daripada risikonya, kelompok tersebut dapat bertindak secara sepihak, memutuskan hasilnya bahkan jika kebanyakan orang lain tidak setuju. Dan jika mereka salah dan seseorang memutuskan untuk mengembangkan senjata biologis, akan sangat terlambat untuk berbalik arah,” kata studi tersebut.

Penggunaan berbahaya dapat melibatkan aktor jahat yang menciptakan pandemi buatan, menggunakan AI untuk membuat senjata kimia dan biologis yang baru dan lebih kuat, atau bahkan melepaskan sistem “AI jahat” yang dilatih untuk mengakhiri hidup.

“Untuk mengurangi risiko ini, kami menyarankan untuk meningkatkan keamanan hayati, membatasi akses ke model AI yang paling berbahaya, dan meminta pengembang AI bertanggung jawab secara hukum atas kerusakan yang disebabkan oleh sistem AI mereka,” saran para peneliti.

Ras AI

Wanita dan AI

Seorang wanita mengobrol dengan AI pintar atau kecerdasan buatan menggunakan chatbot kecerdasan buatan yang dikembangkan. (mendapatkan gambar)

Para peneliti mendefinisikan ras AI sebagai persaingan yang berpotensi mendorong pemerintah dan perusahaan untuk “mempercepat pengembangan AI dan menyerahkan kontrol ke sistem AI,” membandingkan perlombaan dengan Perang Dingin ketika AS dan Uni Soviet berlomba untuk membuat senjata nuklir.

“Potensi AI yang sangat besar telah menciptakan tekanan kompetitif di antara pemain global yang memperebutkan kekuasaan dan pengaruh. ‘Perlombaan AI’ ini didorong oleh negara dan perusahaan yang merasa mereka harus segera membangun dan menggunakan AI untuk mengamankan posisi mereka dan bertahan. Dengan gagal melakukannya dengan benar memprioritaskan risiko global, dinamika ini membuat pengembangan AI lebih mungkin menghasilkan hasil yang berbahaya,” makalah penelitian tersebut menguraikan.

Di militer, ras AI dapat diterjemahkan menjadi “perang yang lebih destruktif, kemungkinan penggunaan yang tidak disengaja atau kehilangan kendali, dan kemungkinan aktor jahat mengkooptasi teknologi ini untuk tujuan mereka sendiri” karena AI mendapatkan daya tarik sebagai senjata militer yang berguna. .

APA BAHAYA AI? CARI TAHU MENGAPA ORANG TAKUT DENGAN KECERDASAN BUATAN

Senjata otonom yang mematikan, misalnya, dapat membunuh target tanpa campur tangan manusia sambil merampingkan akurasi dan waktu pengambilan keputusan. Senjata itu bisa menjadi lebih unggul dari manusia dan militer dapat mendelegasikan situasi hidup atau mati ke sistem AI, menurut para peneliti, yang dapat meningkatkan kemungkinan perang.

“Meskipun berjalan, robot penembak belum menggantikan tentara di medan perang, teknologi sedang berkumpul dengan cara yang memungkinkan hal ini terjadi dalam waktu dekat,” para peneliti menjelaskan.

“Mengirim pasukan ke medan perang adalah keputusan serius yang tidak bisa diambil oleh para pemimpin dengan enteng. Tapi senjata otonom akan memungkinkan negara yang agresif untuk melancarkan serangan tanpa membahayakan nyawa tentaranya sendiri dan dengan demikian menghadapi pengawasan domestik yang lebih sedikit,” tambah mereka, dengan alasan bahwa jika politik pemimpin tidak perlu lagi bertanggung jawab atas tentara manusia yang pulang dengan kantong mayat, negara-negara dapat melihat peningkatan kemungkinan perang.

Kecerdasan buatan juga dapat membuka pintu air untuk serangan dunia maya yang lebih akurat dan cepat yang dapat memusnahkan infrastruktur atau bahkan memicu perang antar negara.

“Untuk mengurangi risiko perlombaan AI, kami menyarankan untuk menerapkan peraturan keselamatan, koordinasi internasional, dan kontrol publik terhadap AI tujuan umum,” makalah tersebut menyarankan untuk membantu mencegah hasil tersebut.

Risiko Organisasi

gambar AI

Kecerdasan Buatan meretas data dalam waktu dekat. (iStock)

Para peneliti di balik makalah tersebut mengatakan laboratorium dan tim peneliti yang membangun sistem AI “dapat mengalami kecelakaan yang sangat parah, terutama jika mereka tidak memiliki budaya keselamatan yang kuat.”

“AI dapat secara tidak sengaja dibocorkan ke publik atau dicuri oleh aktor jahat. Organisasi dapat gagal berinvestasi dalam penelitian keselamatan, kurang memahami cara meningkatkan keamanan AI secara andal lebih cepat daripada kemampuan AI secara umum, atau menekan kekhawatiran internal tentang risiko AI,” tulis para peneliti .

Mereka membandingkan organisasi AI dengan bencana sepanjang sejarah seperti Chernobyl, Three Mile Island, dan insiden pesawat ulang-alik Challenger yang fatal.

AI TECH ‘LEBIH BERBAHAYA DARIPADA AR-15’, DAPAT DIPUTAR UNTUK ‘DAYA JAHAT’, PERINGATAN AHLI

“Saat kami maju dalam mengembangkan sistem AI canggih, penting untuk diingat bahwa sistem ini tidak kebal terhadap bencana kecelakaan. Faktor penting dalam mencegah kecelakaan dan mempertahankan tingkat risiko rendah terletak pada organisasi yang bertanggung jawab atas teknologi ini,” tulis para peneliti. .

Para peneliti berpendapat bahwa meskipun tidak ada aktor jahat atau tekanan persaingan, AI dapat memiliki efek bencana pada umat manusia hanya karena kesalahan manusia. Dalam kasus Challenger atau Chernobyl, sudah ada pengetahuan yang mapan tentang peroketan dan reaktor nuklir ketika kekacauan melanda, tetapi perbandingan AI jauh lebih sedikit dipahami.

“AI kurang memiliki pemahaman teoretis yang komprehensif, dan cara kerjanya tetap menjadi misteri bahkan bagi mereka yang menciptakannya. Ini menghadirkan tantangan tambahan untuk mengendalikan dan memastikan keamanan teknologi yang belum sepenuhnya kita pahami,” bantah para peneliti.

Kecelakaan AI tidak hanya berpotensi menimbulkan bencana, tetapi juga sulit dihindari.

Para peneliti menunjuk ke sebuah insiden di OpenAI, laboratorium AI di belakang ChatGPT, di mana sistem AI dilatih untuk menghasilkan respons yang menggembirakan bagi pengguna, tetapi kesalahan manusia membuat sistem menghasilkan “teks yang berisi kebencian dan eksplisit secara seksual dalam semalam.” Aktor jahat yang meretas sistem atau membocorkan sistem AI juga dapat membuka jalan bagi malapetaka karena entitas jahat mengonfigurasi ulang sistem di luar niat pembuat aslinya.

Sejarah juga menunjukkan bahwa penemu dan ilmuwan sering meremehkan seberapa cepat kemajuan teknologi benar-benar menjadi kenyataan, seperti prediksi Wright bersaudara tentang penerbangan bertenaga 50 tahun ke depan, ketika mereka benar-benar mencapai kemenangan ini dua tahun dari prediksi mereka.

“Evolusi kemampuan AI yang cepat dan tidak dapat diprediksi menghadirkan tantangan yang signifikan untuk mencegah kecelakaan. Lagi pula, sulit untuk mengontrol sesuatu jika kita bahkan tidak tahu apa yang dapat dilakukannya atau seberapa jauh hal itu dapat melebihi harapan kita,” jelas para peneliti.

Para peneliti menyarankan agar organisasi membangun budaya dan struktur yang lebih baik untuk mengurangi risiko tersebut, seperti melalui “audit internal dan eksternal, pertahanan berlapis terhadap risiko, dan keamanan informasi tingkat militer.”

AI nakal

gambar AI

Kata-kata Kecerdasan Buatan terlihat dalam ilustrasi yang diambil 31 Maret 2023 ini. (REUTERS/Dado Ruvic/Ilustrasi)

Salah satu kekhawatiran paling umum dengan kecerdasan buatan sejak proliferasi teknologi dalam beberapa tahun terakhir adalah bahwa manusia dapat kehilangan kendali dan komputer mengalahkan kecerdasan manusia.

AI ‘KILL SWITCH’ AKAN MEMBUAT KEMANUSIAAN KURANG AMAN, DAPAT MENEMUKAN ‘HOSTILE’ SUPERINTELIGENCE: AI FOUNDATION

“Jika sistem AI lebih cerdas dari kita, dan jika kita tidak dapat mengarahkannya ke arah yang menguntungkan, ini akan menyebabkan hilangnya kendali yang dapat menimbulkan konsekuensi parah. Kendali AI adalah masalah yang lebih teknis daripada yang disajikan dalam bagian sebelumnya,” tulis para peneliti.

Manusia dapat kehilangan kendali melalui “permainan proxy”, ketika manusia memberikan sistem AI tujuan perkiraan yang “yang awalnya tampaknya berkorelasi dengan tujuan ideal”, tetapi sistem AI “akhirnya mengeksploitasi proxy ini dengan cara yang menyimpang dari tujuan ideal. atau bahkan mengarah pada hasil negatif.”

Para peneliti mengutip contoh dari Uni Soviet ketika pihak berwenang mulai mengukur kinerja pabrik paku berdasarkan berapa banyak paku yang dapat diproduksi oleh sebuah pabrik. Untuk melebihi atau memenuhi ekspektasi, pabrik mulai memproduksi paku kecil secara massal yang pada dasarnya tidak berguna karena ukurannya.

“Pihak berwenang mencoba memperbaiki situasi dengan mengalihkan fokus ke berat paku yang diproduksi. Namun, segera setelah itu, pabrik mulai memproduksi paku raksasa yang sama tidak bergunanya, tetapi memberi mereka skor bagus di atas kertas. Dalam kedua kasus tersebut, pabrik belajar memainkan tujuan proksi yang diberikan kepada mereka, sementara benar-benar gagal memenuhi tujuan yang dimaksudkan,” para peneliti menjelaskan.

Para peneliti menyarankan agar perusahaan tidak menerapkan sistem AI dengan tujuan terbuka seperti “menghasilkan uang sebanyak mungkin”, dan mendukung penelitian keamanan AI yang dapat menyisihkan penelitian in-the-weed untuk mencegah bencana.

KLIK DI SINI UNTUK MENDAPATKAN APLIKASI FOX NEWS

“Bahaya ini membutuhkan perhatian serius. Saat ini, sangat sedikit orang yang berupaya mengurangi risiko AI. Kami belum tahu cara mengontrol sistem AI yang sangat canggih, dan metode kontrol yang ada sudah terbukti tidak memadai… Karena kemampuan AI terus tumbuh dengan kecepatan yang belum pernah terjadi sebelumnya menilai, mereka dapat melampaui kecerdasan manusia dalam hampir semua hal dalam waktu dekat, menciptakan kebutuhan mendesak untuk mengelola potensi risiko,” tulis para peneliti dalam kesimpulan mereka.

Namun demikian, “banyak tindakan yang dapat kami ambil untuk mengurangi risiko ini secara substansial” sebagaimana diuraikan dalam laporan tersebut.

SUMBER / SOURCE

Situs Bandar Togel Online Terpercaya bisa anda akses langsung di SITUS TOTO ONLINE, TOTOCC adalah situs bandar togel dengan pasaran togel terlengkap. Anda bisa bermain langsung dan melihat hasil langsung dari togel hari ini hanya di TOTOCC.COM.

Keyword :
TOTOCC is TOGELCC
TOGELCC is TOTOCC