Para ilmuwan takut akan ancaman dari kecerdasan buatan

Para ilmuwan takut akan ancaman dari kecerdasan buatan
Para ilmuwan takut akan ancaman dari kecerdasan buatan

Video: Para ilmuwan takut akan ancaman dari kecerdasan buatan

Video: Para ilmuwan takut akan ancaman dari kecerdasan buatan
Video: BAKAT LUAR BIASA YANG DIANGGAP SAMPAH‼️ LIAT ENDINGNYA 2024, Mungkin
Anonim

Kecerdasan buatan (AI) yang meningkatkan diri di masa depan dapat memperbudak atau membunuh orang jika dia mau. Ini dikatakan oleh ilmuwan Amnon Eden, yang percaya bahwa risiko dari pengembangan pemikiran bebas dan kesadaran yang sangat cerdas sangat tinggi, dan "jika Anda tidak menangani masalah pengendalian AI yang sudah pada tahap saat ini. pembangunan, maka besok mungkin tidak akan datang." Menurut Express edisi bahasa Inggris, umat manusia, menurut Amnon Eden, saat ini berada di "point of no return" untuk implementasi plot film epik terkenal "The Terminator".

Perlu dicatat bahwa Dr. Amnon Eden adalah pemimpin proyek yang tujuan utamanya adalah menganalisis potensi dampak buruk AI. Tanpa pemahaman yang benar tentang konsekuensi menciptakan kecerdasan buatan, perkembangannya dapat mengancam bencana, ilmuwan percaya. Saat ini, masyarakat kita kurang mendapat informasi tentang perdebatan yang terjadi di komunitas ilmiah tentang analisis potensi dampak AI. “Pada 2016, analisis kemungkinan risiko harus menjadi lebih luas secara signifikan dalam pemikiran perusahaan dan pemerintah, politisi dan mereka yang bertanggung jawab untuk membuat keputusan,” kata Eden.

Ilmuwan yakin bahwa fiksi ilmiah, yang menggambarkan penghancuran umat manusia oleh robot, akan segera menjadi masalah kita bersama, karena proses pembuatan AI telah di luar kendali. Misalnya, Elon Musk, dengan dukungan pengusaha Sam Altman, memutuskan untuk membuat organisasi nirlaba baru senilai $ 1 miliar yang mengembangkan AI open source yang harus melampaui pikiran manusia. Pada saat yang sama, miliarder Amerika Elon Musk sendiri menempatkan kecerdasan buatan di antara "ancaman terbesar bagi keberadaan kita." Steve Wozniak, salah satu pendiri Apple, mengatakan Maret lalu bahwa “masa depan tampak menakutkan dan sangat berbahaya bagi orang-orang … pada akhirnya akan tiba saatnya ketika komputer akan berpikir lebih cepat daripada kita dan mereka akan menyingkirkan orang yang lambat untuk sehingga perusahaan dapat bekerja lebih efisien.”

Gambar
Gambar

Perlu dicatat bahwa banyak ilmuwan melihat ancaman dari AI. Puluhan ilmuwan, investor, dan pengusaha terkenal, yang kegiatannya, dalam satu atau lain cara, terkait dengan pengembangan kecerdasan buatan, telah menandatangani surat terbuka yang meminta perhatian lebih pada masalah keselamatan dan utilitas sosial pekerjaan di bidang AI. Ahli astrofisika Stephen Hawking dan pendiri Tesla dan SpaceX Elon Musk termasuk di antara penandatangan dokumen ini. Surat itu, bersama dengan dokumen yang menyertainya, yang dirancang oleh Future of Life Institute (FLI), ditulis di tengah kekhawatiran yang berkembang tentang dampak kecerdasan buatan di pasar tenaga kerja dan bahkan kelangsungan hidup jangka panjang seluruh umat manusia di dunia. lingkungan di mana kemampuan robot dan mesin akan tumbuh hampir tak terkendali.

Para ilmuwan memahami fakta bahwa potensi AI saat ini sangat besar, sehingga perlu untuk menyelidiki sepenuhnya kemungkinan penggunaan yang optimal bagi kita untuk menghindari perangkap yang menyertainya, catatan surat FLI. Sangat penting bahwa sistem AI buatan manusia melakukan persis seperti yang kita inginkan. Perlu dicatat bahwa Future of Life Institute didirikan hanya tahun lalu oleh sejumlah penggemar, di antaranya adalah pencipta Skype, Jaan Tallinn, untuk "meminimalkan risiko yang dihadapi umat manusia" dan merangsang penelitian dengan "visi optimis. dari masa depan". Pertama-tama, kita berbicara di sini tentang risiko yang disebabkan oleh pengembangan AI dan robotika. Dewan Penasihat FLI termasuk Musk dan Hawking, bersama dengan aktor terkenal Morgan Freeman dan orang-orang terkenal lainnya. Menurut Elon Musk, pengembangan kecerdasan buatan yang tidak terkendali berpotensi lebih berbahaya daripada senjata nuklir.

Ahli astrofisika Inggris terkenal Stephen Hawking pada akhir 2015 mencoba menjelaskan penolakannya terhadap teknologi AI. Menurutnya, seiring berjalannya waktu, mesin superintelligent akan memandang orang sebagai barang habis pakai atau semut yang hanya mengganggu penyelesaian tugas mereka. Berbicara kepada pengguna portal Reddit, Stephen Hawking mencatat bahwa dia tidak percaya bahwa mesin super cerdas seperti itu akan menjadi "makhluk jahat" yang ingin menghancurkan seluruh umat manusia karena keunggulan intelektual mereka. Kemungkinan besar, adalah mungkin untuk berbicara tentang fakta bahwa mereka tidak akan memperhatikan kemanusiaan.

Gambar
Gambar

“Media terus-menerus mendistorsi kata-kata saya akhir-akhir ini. Risiko utama dalam pengembangan AI bukanlah kejahatan mesin, tetapi kompetensi mereka. Kecerdasan buatan supercerdas akan melakukan pekerjaan yang sangat baik, tetapi jika itu dan tujuan kita tidak sesuai, umat manusia akan memiliki masalah yang sangat serius,”jelas ilmuwan terkenal itu. Sebagai contoh, Hawking mengutip situasi hipotetis di mana AI yang sangat kuat bertanggung jawab atas operasi atau pembangunan bendungan pembangkit listrik tenaga air baru. Untuk mesin seperti itu, prioritasnya adalah berapa banyak energi yang akan dihasilkan oleh sistem yang dipercayakan, dan nasib orang tidak akan menjadi masalah. “Ada beberapa dari kita yang menginjak-injak sarang semut dan menginjak semut karena marah, tetapi mari kita bayangkan sebuah situasi - Anda mengendalikan pembangkit listrik tenaga air yang kuat yang menghasilkan listrik. Jika Anda perlu menaikkan permukaan air dan sebagai akibat dari tindakan Anda, satu sarang semut akan dibanjiri, maka masalah serangga yang tenggelam tidak akan mengganggu Anda. Jangan menempatkan orang di tempat semut,”kata ilmuwan itu.

Masalah potensial kedua untuk pengembangan lebih lanjut dari kecerdasan buatan, menurut Hawking, mungkin "tirani pemilik mesin" - pertumbuhan yang cepat dari kesenjangan tingkat pendapatan antara orang kaya yang akan dapat memonopoli produksi. mesin cerdas, dan seluruh populasi dunia. Stephen Hawking mengusulkan untuk memecahkan kemungkinan masalah ini dengan cara berikut - untuk memperlambat proses pengembangan AI dan beralih ke pengembangan yang tidak "universal", tetapi kecerdasan buatan yang sangat terspesialisasi, yang hanya dapat menyelesaikan berbagai masalah yang sangat terbatas.

Selain Hawking dan Musk, surat itu ditandatangani oleh peraih Nobel dan profesor fisika MIT Frank Wilczek, direktur eksekutif Machine Intelligence Research Institute (MIRI) Luc Mühlhauser, serta banyak spesialis dari perusahaan IT besar: Google, Microsoft dan IBM, serta pengusaha yang mendirikan perusahaan AI Vicarious dan DeepMind. Penulis surat mencatat bahwa mereka tidak bertujuan untuk menakut-nakuti publik, tetapi berencana untuk menyoroti aspek positif dan negatif yang terkait dengan penciptaan kecerdasan buatan. “Saat ini, semua orang setuju bahwa penelitian di bidang AI berkembang dengan mantap, dan pengaruh AI pada masyarakat manusia modern hanya akan meningkat,” kata surat itu, “peluang yang terbuka bagi manusia sangat besar, segala sesuatu yang peradaban modern yang ditawarkan diciptakan oleh orang yang cerdas. Kami tidak dapat memprediksi apa yang akan dapat kami capai jika kecerdasan manusia dapat dikalikan dengan AI, tetapi masalah menghilangkan kemiskinan dan penyakit tidak lagi sangat sulit.”

Gambar
Gambar

Banyak perkembangan di bidang kecerdasan buatan sudah termasuk dalam kehidupan modern, termasuk sistem pengenalan gambar dan ucapan, kendaraan tak berawak dan banyak lagi. Pengamat Silicon Valley memperkirakan lebih dari 150 startup saat ini sedang diimplementasikan di area ini. Pada saat yang sama, perkembangan di bidang ini menarik semakin banyak investasi, dan semakin banyak perusahaan seperti Google yang mengembangkan proyek mereka berdasarkan AI. Oleh karena itu, para penulis surat percaya bahwa waktunya telah tiba untuk meningkatkan perhatian pada semua kemungkinan konsekuensi dari ledakan yang diamati terhadap aspek ekonomi, sosial dan hukum kehidupan manusia.

Posisi bahwa kecerdasan buatan dapat menimbulkan bahaya bagi manusia dibagikan oleh Nick Bostrom, seorang profesor di Universitas Oxford, yang dikenal karena karyanya tentang prinsip antropik. Spesialis ini percaya bahwa AI telah sampai pada titik yang akan diikuti oleh ketidakcocokannya dengan manusia. Nick Bostrom menekankan bahwa tidak seperti rekayasa genetika dan perubahan iklim, di mana pemerintah mengalokasikan dana yang cukup untuk mengendalikannya, "tidak ada yang dilakukan untuk mengendalikan evolusi AI." Menurut profesor, "kebijakan kekosongan hukum yang perlu diisi" saat ini sedang diupayakan terkait dengan kecerdasan buatan. Bahkan teknologi seperti mobil self-driving, yang tampak tidak berbahaya dan berguna, menimbulkan sejumlah pertanyaan. Misalnya, apakah mobil seperti itu harus melakukan pengereman darurat untuk menyelamatkan penumpangnya dan siapa yang akan bertanggung jawab jika terjadi kecelakaan yang dilakukan oleh kendaraan tak berawak?

Membahas potensi risiko, Nick Bostrom mencatat bahwa "komputer tidak dapat menentukan manfaat dan bahaya bagi manusia" dan "bahkan tidak memiliki gagasan sedikit pun tentang moralitas manusia." Selain itu, siklus perbaikan diri di komputer dapat terjadi pada kecepatan yang tidak dapat dilacak oleh seseorang, dan hampir tidak ada yang dapat dilakukan tentang hal ini, kata ilmuwan tersebut. “Pada tahap pengembangan ketika komputer dapat berpikir sendiri, tidak ada yang dapat memprediksi dengan pasti apakah ini akan menyebabkan kekacauan atau secara signifikan meningkatkan dunia kita,” kata Nick Bostrom, mengutip sebagai contoh solusi sederhana yang mungkin untuk komputer - mematikan komputer. di negara-negara dengan pemanasan iklim dingin untuk meningkatkan kesehatan masyarakat dan meningkatkan daya tahan mereka, yang "dapat datang ke kepala kecerdasan buatan."

Gambar
Gambar

Selain itu, Bostrom juga mengangkat masalah chipping otak manusia untuk meningkatkan biointelligence kita. “Dalam banyak hal, prosedur seperti itu dapat berguna jika semua proses dikendalikan, tetapi apa yang terjadi jika chip yang ditanamkan dapat memprogram ulang dirinya sendiri? Apa konsekuensi yang dapat ditimbulkan - munculnya manusia super atau munculnya komputer yang hanya akan terlihat seperti manusia?" - profesor bertanya. Cara komputer memecahkan masalah manusia sangat berbeda dengan kita. Misalnya, dalam catur, otak manusia hanya mempertimbangkan serangkaian gerakan yang sempit, memilih opsi terbaik darinya. Pada gilirannya, komputer mempertimbangkan semua kemungkinan gerakan, memilih yang terbaik. Pada saat yang sama, komputer tidak berharap untuk mengecewakan atau mengejutkan lawannya dalam permainan. Tidak seperti manusia, bermain catur, komputer dapat melakukan gerakan licik dan halus hanya secara tidak sengaja. Kecerdasan buatan dapat menghitung dengan cara terbaik - untuk menghilangkan kesalahan dari sistem apa pun dengan menghapus "faktor manusia" dari sana, tetapi, tidak seperti manusia, robot tidak siap untuk melakukan tindakan yang akan menyelamatkan nyawa orang.

Antara lain, peningkatan jumlah mesin pintar merupakan tahap revolusi industri baru. Pada gilirannya, ini berarti bahwa dalam waktu dekat, umat manusia akan menghadapi perubahan sosial yang tak terhindarkan. Seiring waktu, pekerjaan akan menjadi banyak spesialis berkualifikasi tinggi, karena hampir semua tugas sederhana dapat dilakukan oleh robot dan mekanisme lainnya. Para ilmuwan percaya bahwa kecerdasan buatan "membutuhkan mata dan mata" agar planet kita tidak berubah menjadi planet kartun "Zhelezyaka", yang dihuni oleh robot.

Dalam hal semakin banyak otomatisasi proses produksi, masa depan telah tiba. Forum Ekonomi Dunia (WEF) mempresentasikan laporannya, yang menurutnya otomatisasi akan mengarah pada fakta bahwa pada tahun 2020 lebih dari 5 juta orang yang bekerja di berbagai bidang akan kehilangan pekerjaan. Ini adalah dampak dari robot dan sistem robot pada kehidupan kita. Untuk menyusun laporan, karyawan WEF menggunakan data 13,5 juta karyawan dari seluruh dunia. Menurut mereka, pada tahun 2020, total kebutuhan untuk lebih dari 7 juta pekerjaan akan hilang, sementara pertumbuhan lapangan kerja yang diharapkan di industri lain akan berjumlah lebih dari 2 juta pekerjaan.

Direkomendasikan: