Sebelum Anda adalah bagian kedua dari artikel dari seri "Tunggu, bagaimana semua ini bisa menjadi nyata, mengapa masih tidak dibicarakan di setiap sudut." Dalam seri sebelumnya, diketahui bahwa ledakan kecerdasan secara bertahap merayap ke orang-orang di planet Bumi, ia mencoba berkembang dari kecerdasan yang fokus secara sempit ke kecerdasan universal dan, akhirnya, kecerdasan buatan.
“Mungkin kita menghadapi masalah yang sangat sulit, dan tidak diketahui berapa banyak waktu yang dialokasikan untuk solusinya, tetapi masa depan umat manusia mungkin bergantung pada solusinya.” - Nick Bostrom.
Bagian pertama artikel itu dimulai dengan cukup polos. Kami membahas kecerdasan buatan yang terfokus secara sempit (AI, yang berspesialisasi dalam memecahkan satu masalah tertentu seperti menentukan rute atau bermain catur), ada banyak hal di dunia kita. Kemudian mereka menganalisis mengapa begitu sulit untuk menumbuhkan kecerdasan buatan terarah umum (AGI, atau AI, yang, dalam hal kemampuan intelektual, dapat dibandingkan dengan manusia dalam memecahkan masalah apa pun), sangat sulit. Kami menyimpulkan bahwa tingkat kemajuan teknologi yang eksponensial mengisyaratkan bahwa AGI mungkin akan segera hadir. Pada akhirnya, kami memutuskan bahwa segera setelah mesin mencapai kecerdasan manusia, hal berikut dapat segera terjadi:
Seperti biasa, kami melihat ke layar, tidak percaya bahwa kecerdasan buatan (ISI, yang jauh lebih pintar daripada siapa pun) dapat muncul selama hidup kami, dan memilih emosi yang paling mencerminkan pendapat kami tentang masalah ini.
Sebelum kita menyelami spesifikasi ISI, mari kita ingatkan diri kita sendiri apa artinya sebuah mesin menjadi supercerdas.
Perbedaan utama terletak antara superintelijen cepat dan superintelijen kualitas. Seringkali, hal pertama yang terlintas dalam pikiran ketika berpikir tentang komputer super cerdas adalah bahwa ia dapat berpikir jauh lebih cepat daripada seseorang - jutaan kali lebih cepat, dan dalam lima menit ia akan memahami apa yang dibutuhkan seseorang sepuluh tahun. ("Saya tahu kungfu!")
Kedengarannya mengesankan, dan ISI benar-benar harus berpikir lebih cepat daripada orang lain - tetapi fitur utama yang memisahkan adalah kualitas kecerdasannya, yang benar-benar berbeda. Manusia jauh lebih pintar daripada monyet, bukan karena mereka berpikir lebih cepat, tetapi karena otak mereka mengandung sejumlah modul kognitif cerdik yang melakukan representasi linguistik yang kompleks, perencanaan jangka panjang, pemikiran abstrak, yang tidak mampu dilakukan oleh monyet. Jika Anda mempercepat otak monyet seribu kali, ia tidak akan menjadi lebih pintar dari kita - bahkan setelah sepuluh tahun ia tidak akan dapat merakit konstruktor sesuai dengan instruksi, yang akan memakan waktu paling lama beberapa jam bagi seseorang. Ada hal-hal yang tidak akan pernah dipelajari monyet, tidak peduli berapa jam yang dihabiskannya atau seberapa cepat otaknya bekerja.
Selain itu, monyet tidak tahu bagaimana secara manusiawi, karena otaknya tidak mampu menyadari keberadaan dunia lain - monyet mungkin tahu apa itu seseorang dan apa itu gedung pencakar langit, tetapi tidak akan pernah mengerti bahwa gedung pencakar langit dibangun oleh rakyat. Di dunianya, semuanya milik alam, dan kera tidak hanya tidak dapat membangun gedung pencakar langit, tetapi juga memahami bahwa siapa pun dapat membangunnya sama sekali. Dan ini adalah hasil dari perbedaan kecil dalam kualitas kecerdasan.
Dalam skema umum kecerdasan yang sedang kita bicarakan, atau hanya menurut standar makhluk biologis, perbedaan kualitas kecerdasan antara manusia dan monyet sangatlah kecil. Pada artikel sebelumnya, kami menempatkan kemampuan kognitif biologis pada sebuah tangga:
Untuk memahami seberapa serius mesin superintelligent itu, letakkan dua tingkat lebih tinggi dari orang yang ada di tangga itu. Mesin ini mungkin hanya sedikit super cerdas, tetapi keunggulannya atas kemampuan kognitif kita akan sama dengan kita - atas monyet. Dan seperti simpanse yang tidak akan pernah mengerti bahwa gedung pencakar langit dapat dibangun, kita mungkin tidak akan pernah mengerti apa yang akan dipahami oleh mesin yang beberapa langkah lebih tinggi, bahkan jika mesin itu mencoba menjelaskannya kepada kita. Tapi ini hanya beberapa langkah. Mesin yang lebih pintar akan melihat semut di dalam kita - itu akan mengajari kita hal-hal paling sederhana dari posisinya selama bertahun-tahun, dan upaya ini akan benar-benar sia-sia.
Jenis kecerdasan super yang akan kita bicarakan hari ini terletak jauh di luar tangga ini. Ini adalah ledakan kecerdasan - ketika mobil menjadi lebih pintar, semakin cepat ia dapat meningkatkan kecerdasannya sendiri, secara bertahap meningkatkan momentum. Mungkin butuh bertahun-tahun bagi mesin seperti ini untuk melampaui kecerdasan simpanse, tetapi mungkin beberapa jam untuk mengungguli kita beberapa tingkat. Sejak saat itu, mobil sudah bisa melompati empat langkah setiap detik. Itulah mengapa kita harus memahami bahwa segera setelah berita pertama bahwa mesin telah mencapai tingkat kecerdasan manusia muncul, kita mungkin menghadapi kenyataan hidup berdampingan di Bumi dengan sesuatu yang akan jauh lebih tinggi daripada kita di tangga ini (atau mungkin, dan jutaan kali lebih tinggi):
Dan karena kita telah menetapkan bahwa sama sekali tidak berguna untuk mencoba memahami kekuatan mesin yang hanya dua langkah di atas kita, mari kita definisikan sekali dan untuk semua bahwa tidak ada cara untuk memahami apa yang akan dilakukan ISI dan apa konsekuensinya. ini akan untuk kita. Siapa pun yang mengklaim sebaliknya sama sekali tidak mengerti apa arti superintelijen.
Evolusi secara perlahan dan bertahap mengembangkan otak biologis selama ratusan juta tahun, dan jika manusia menciptakan mesin super cerdas, dalam arti tertentu kita akan melampaui evolusi. Atau itu akan menjadi bagian dari evolusi - mungkin evolusi bekerja sedemikian rupa sehingga kecerdasan berkembang secara bertahap hingga mencapai titik balik yang menandai masa depan baru bagi semua makhluk hidup:
Untuk alasan yang akan kita bahas nanti, sebagian besar komunitas ilmiah percaya bahwa pertanyaannya bukanlah apakah kita akan mencapai titik kritis ini, tetapi kapan.
Di mana kita akan berakhir setelah ini?
Saya pikir tidak seorang pun di dunia ini, baik saya maupun Anda, akan dapat mengatakan apa yang akan terjadi ketika kita mencapai titik kritis. Filsuf Oxford dan ahli teori AI terkemuka Nick Bostrom percaya bahwa kita dapat menggabungkan semua hasil yang mungkin menjadi dua kategori besar.
Pertama, melihat sejarah, kita mengetahui hal-hal berikut tentang kehidupan: spesies muncul, ada untuk waktu tertentu, dan kemudian tak terhindarkan jatuh dari balok keseimbangan dan mati.
"Semua spesies mati" telah menjadi aturan yang dapat diandalkan dalam sejarah seperti "semua orang mati suatu hari nanti." 99,9% spesies telah jatuh dari balok kehidupan, dan cukup jelas bahwa jika suatu spesies menggantung di kayu ini terlalu lama, embusan angin alami atau asteroid yang tiba-tiba akan membalikkan kayu tersebut. Bostrom menyebut kepunahan sebagai keadaan penarik - tempat di mana semua spesies seimbang agar tidak jatuh di mana belum ada spesies yang kembali.
Dan meskipun sebagian besar ilmuwan mengakui bahwa ISI akan memiliki kemampuan untuk membuat manusia punah, banyak juga yang percaya bahwa menggunakan kemampuan ISI akan memungkinkan individu (dan spesies secara keseluruhan) untuk mencapai keadaan kedua penarik - keabadian spesies. Bostrom percaya bahwa keabadian suatu spesies sama menariknya dengan kepunahan suatu spesies, yaitu, jika kita sampai pada hal ini, kita akan ditakdirkan untuk hidup abadi. Jadi, bahkan jika semua spesies sampai sekarang jatuh dari tongkat ini ke pusaran kepunahan, Bostrom percaya bahwa batang kayu itu memiliki dua sisi, dan di Bumi tidak ada kecerdasan seperti itu yang akan mengerti bagaimana jatuh ke sisi lain.
Jika Bostrom dan yang lainnya benar, dan menilai dari semua informasi yang tersedia bagi kita, mereka mungkin benar, kita perlu menerima dua fakta yang sangat mengejutkan:
Munculnya ISI untuk pertama kalinya dalam sejarah akan membuka jalan bagi suatu spesies untuk mencapai keabadian dan keluar dari siklus kepunahan yang fatal.
Munculnya ISI akan memiliki dampak besar yang tak terbayangkan sehingga, kemungkinan besar, akan mendorong umat manusia keluar dari log ini ke satu arah atau yang lain.
Ada kemungkinan bahwa ketika evolusi mencapai titik balik seperti itu, ia selalu mengakhiri hubungan manusia dengan arus kehidupan dan menciptakan dunia baru, dengan atau tanpa manusia.
Ini mengarah pada pertanyaan menarik yang tidak akan ditanyakan oleh seorang gelandangan: kapan kita akan sampai pada titik kritis ini dan di mana ia akan menempatkan kita? Tidak ada seorang pun di dunia yang tahu jawaban atas pertanyaan ganda ini, tetapi banyak orang pintar telah mencoba mencari tahu selama beberapa dekade. Untuk sisa artikel, kami akan mencari tahu dari mana mereka berasal.
* * *
Mari kita mulai dengan bagian pertama dari pertanyaan ini: kapan kita harus mencapai titik kritis? Dengan kata lain: berapa banyak waktu yang tersisa sampai mesin pertama mencapai superintelligence?
Pendapat bervariasi dari kasus ke kasus. Banyak orang, termasuk Profesor Vernor Vinge, ilmuwan Ben Herzel, salah satu pendiri Sun Microsystems Bill Joy, futuris Ray Kurzweil, setuju dengan pakar pembelajaran mesin Jeremy Howard ketika dia mempresentasikan grafik berikut di TED Talk:
Orang-orang ini memiliki pandangan yang sama bahwa ISI akan segera hadir - pertumbuhan eksponensial ini, yang tampaknya lambat bagi kita hari ini, akan benar-benar meledak dalam beberapa dekade mendatang.
Lainnya, seperti salah satu pendiri Microsoft Paul Allen, psikolog riset Gary Marcus, pakar komputer Ernest Davis, dan pengusaha teknologi Mitch Kapor, percaya bahwa para pemikir seperti Kurzweil secara serius meremehkan besarnya masalah dan berpikir kita tidak sedekat itu. titik kritis.
Kubu Kurzweil berpendapat bahwa satu-satunya meremehkan yang terjadi adalah mengabaikan pertumbuhan eksponensial, dan orang-orang yang ragu dapat dibandingkan dengan mereka yang melihat internet yang perlahan booming pada tahun 1985 dan berpendapat bahwa itu tidak akan berdampak pada dunia dalam waktu dekat.
Orang-orang yang ragu mungkin menolak bahwa lebih sulit bagi kemajuan untuk mengambil setiap langkah berikutnya dalam hal perkembangan kecerdasan yang eksponensial, yang menetralkan sifat eksponensial yang khas dari kemajuan teknologi. Dll.
Kubu ketiga, di mana Nick Bostrom berada, tidak setuju dengan kubu pertama atau kedua, dengan alasan bahwa a) semua ini benar-benar dapat terjadi dalam waktu dekat; dan b) tidak ada jaminan bahwa ini akan terjadi sama sekali atau akan memakan waktu lebih lama.
Lainnya, seperti filsuf Hubert Dreyfus, percaya bahwa ketiga kelompok secara naif percaya bahwa akan ada titik kritis sama sekali, dan kemungkinan besar kita tidak akan pernah sampai ke ISI.
Apa yang terjadi ketika kita menggabungkan semua pendapat ini?
Pada tahun 2013, Bostrom melakukan survei di mana ia mewawancarai ratusan pakar AI pada serangkaian konferensi dengan topik berikut: "Apa prediksi Anda untuk mencapai AGI di tingkat manusia?" dan meminta kami untuk menyebutkan tahun optimis (di mana kita akan memiliki AGI dengan peluang 10 persen), asumsi realistis (tahun di mana kita akan memiliki AGI dengan probabilitas 50 persen) dan asumsi percaya diri (tahun paling awal di mana AGI akan muncul sejak probabilitas 90 -persentase). Berikut adalah hasilnya:
* Rata-rata tahun optimis (10%): 2022
* Rata-rata tahun realistis (50%): 2040
* Rata-rata tahun pesimis (90%): 2075
Rata-rata responden percaya bahwa dalam 25 tahun kita akan memiliki AGI daripada tidak. Peluang 90 persen AGI terjadi pada tahun 2075 berarti bahwa jika Anda masih cukup muda sekarang, kemungkinan besar itu akan terjadi dalam hidup Anda.
Sebuah studi terpisah baru-baru ini dilakukan oleh James Barratt (penulis buku yang terkenal dan sangat bagus Our Latest Invention, kutipan dari Saya persembahkan untuk perhatian pembaca Hi-News.ru) dan Ben Hertzel di Konferensi AGI, Konferensi AGI tahunan, hanya menunjukkan pendapat orang-orang tentang tahun di mana kita mencapai AGI: 2030, 2050, 2100, nanti atau tidak sama sekali. Berikut adalah hasilnya:
* 2030: 42% responden
* 2050: 25%
* 2100: 20%
Setelah 2100: 10%
Tidak pernah: 2%
Mirip dengan hasil Bostrom. Dalam jajak pendapat Barratt, lebih dari dua pertiga dari mereka yang disurvei percaya AGI akan ada di sini pada tahun 2050, dan kurang dari setengahnya percaya AGI akan muncul dalam 15 tahun ke depan. Juga mengejutkan bahwa hanya 2% responden, pada prinsipnya, tidak melihat AGI di masa depan kita.
Tapi AGI bukanlah titik kritis seperti ISI. Kapan, menurut para ahli, kita akan memiliki ISI?
Bostrom bertanya kepada para ahli kapan kita akan mencapai ASI: a) dua tahun setelah mencapai AGI (yaitu, hampir seketika karena ledakan kecerdasan); b.setelah 30 tahun. Hasil?
Pendapat rata-rata adalah bahwa transisi cepat dari AGI ke ISI akan terjadi dengan probabilitas 10%, tetapi dalam 30 tahun atau kurang akan terjadi dengan probabilitas 75%.
Dari data ini, kita tidak tahu tanggal berapa responden akan menyebut peluang 50 persen ASI, tetapi berdasarkan dua jawaban di atas, mari kita asumsikan itu adalah 20 tahun. Artinya, para ahli AI terkemuka dunia percaya bahwa titik balik akan datang pada tahun 2060 (AGI akan muncul pada tahun 2040 + akan membutuhkan waktu 20 tahun untuk transisi dari AGI ke ISI).
Tentu saja, semua statistik di atas adalah spekulatif dan hanya mewakili pendapat para ahli di bidang kecerdasan buatan, tetapi mereka juga menunjukkan bahwa sebagian besar orang yang tertarik setuju bahwa pada tahun 2060, AI kemungkinan akan tiba. Hanya dalam waktu 45 tahun.
Mari kita beralih ke pertanyaan kedua. Ketika kita sampai pada titik kritis, sisi mana dari pilihan fatal yang akan menentukan kita?
Superintelligence akan memiliki kekuatan yang paling kuat, dan pertanyaan kritis bagi kita adalah sebagai berikut:
Siapa atau apa yang akan mengendalikan kekuatan ini dan apa yang akan menjadi motivasi mereka?
Jawaban atas pertanyaan ini akan tergantung pada apakah ISI mendapatkan perkembangan yang luar biasa kuat, perkembangan yang sangat menakutkan, atau sesuatu di antaranya.
Tentu saja, komunitas ahli juga mencoba menjawab pertanyaan-pertanyaan ini. Jajak pendapat Bostrom menganalisis kemungkinan kemungkinan konsekuensi dari dampak AGI pada kemanusiaan, dan ternyata dengan peluang 52 persen semuanya akan berjalan sangat baik dan dengan peluang 31 persen semuanya akan berjalan buruk atau sangat buruk. Jajak pendapat yang dilampirkan di akhir bagian sebelumnya dari topik ini, yang dilakukan di antara Anda, para pembaca Hi-News, menunjukkan hasil yang sama. Untuk hasil yang relatif netral, kemungkinannya hanya 17%. Dengan kata lain, kita semua percaya bahwa AGI akan menjadi masalah besar. Perlu juga dicatat bahwa survei ini menyangkut munculnya AGI - dalam kasus ISI, persentase netralitas akan lebih rendah.
Sebelum kita berpikir lebih dalam tentang sisi baik dan buruk dari pertanyaan, mari kita gabungkan kedua sisi pertanyaan - "kapan ini akan terjadi?" dan "apakah ini baik atau buruk?" ke dalam tabel yang mencakup pandangan sebagian besar ahli.
Kita akan membicarakan kamp utama sebentar lagi, tapi pertama-tama tentukan posisimu. Kemungkinannya, Anda berada di tempat yang sama seperti saya sebelum saya mulai mengerjakan topik ini. Ada beberapa alasan mengapa orang tidak memikirkan topik ini sama sekali:
* Seperti yang disebutkan di bagian pertama, film-film tersebut benar-benar membingungkan orang dan fakta, menghadirkan skenario yang tidak realistis dengan kecerdasan buatan, yang mengarah pada fakta bahwa kita tidak boleh menganggap serius AI sama sekali. James Barratt menyamakan situasi ini dengan yang dikeluarkan oleh Pusat Pengendalian Penyakit (CDC) dengan peringatan serius tentang vampir di masa depan kita.
* Karena apa yang disebut bias kognitif, sangat sulit bagi kita untuk percaya bahwa sesuatu itu nyata sampai kita memiliki bukti. Orang dapat dengan yakin membayangkan para ilmuwan komputer tahun 1988 secara teratur mendiskusikan konsekuensi luas dari Internet dan apa yang bisa terjadi, tetapi orang hampir tidak percaya bahwa itu akan mengubah hidup mereka sampai itu benar-benar terjadi. Hanya saja komputer tidak tahu bagaimana melakukan ini pada tahun 1988, dan orang-orang hanya melihat komputer mereka dan berpikir, “Benarkah? Apakah ini yang akan mengubah dunia? Imajinasi mereka dibatasi oleh apa yang telah mereka pelajari dari pengalaman pribadi, mereka tahu apa itu komputer, dan sulit membayangkan apa yang bisa dilakukan komputer di masa depan. Hal yang sama terjadi sekarang dengan AI. Kami mendengar bahwa itu akan menjadi hal yang serius, tetapi karena kami belum menghadapinya secara langsung dan, secara umum, kami mengamati manifestasi AI yang agak lemah di dunia modern kami, agak sulit bagi kami untuk percaya bahwa itu akan secara radikal mengubah hidup kita. Berlawanan dengan prasangka inilah banyak ahli dari semua kubu, serta orang-orang yang tertarik, menentang untuk mencoba menarik perhatian kita melalui kebisingan egosentrisme kolektif sehari-hari.
* Bahkan jika kita percaya pada semua ini - berapa kali hari ini Anda memikirkan fakta bahwa Anda akan menghabiskan sisa kekekalan dalam ketiadaan? Sedikit, setuju. Bahkan jika fakta ini jauh lebih penting daripada apa pun yang Anda lakukan hari demi hari. Ini karena otak kita biasanya fokus pada hal-hal kecil sehari-hari, tidak peduli seberapa delusi situasi jangka panjang yang kita alami. Hanya saja kita dibuat.
Salah satu tujuan artikel ini adalah untuk mengeluarkan Anda dari kamp yang disebut "Saya suka memikirkan hal-hal lain" dan menempatkan Anda di kamp ahli, bahkan jika Anda hanya berdiri di persimpangan antara dua garis putus-putus di alun-alun di atas, benar-benar ragu-ragu.
Dalam perjalanan penelitian, menjadi jelas bahwa pendapat kebanyakan orang dengan cepat melayang ke arah "kubu utama", dan tiga perempat ahli jatuh ke dalam dua subkamp di kamp utama.
Kami akan mengunjungi kedua kamp ini secara penuh. Mari kita mulai dengan kesenangan.
Mengapa masa depan bisa menjadi impian terbesar kita?
Saat kami menjelajahi dunia AI, secara mengejutkan kami menemukan banyak orang di zona nyaman kami. Orang-orang di alun-alun kanan atas berdengung dengan kegembiraan. Mereka percaya bahwa kita akan jatuh di sisi yang baik dari log, dan mereka juga percaya bahwa kita pasti akan sampai pada ini. Bagi mereka, masa depan hanyalah yang terbaik yang hanya bisa diimpikan.
Hal yang membedakan orang-orang ini dari pemikir lain bukanlah karena mereka ingin berada di pihak yang bahagia - tetapi mereka yakin bahwa dialah yang menunggu kita.
Keyakinan ini muncul dari kontroversi. Kritikus percaya itu berasal dari kegembiraan yang mempesona yang membayangi potensi sisi negatif. Tetapi para pendukung mengatakan prediksi suram selalu naif; teknologi terus dan akan selalu membantu kita lebih dari merugikan kita.
Anda bebas memilih salah satu dari pendapat ini, tetapi singkirkan skeptisisme dan perhatikan baik-baik sisi bahagia balok keseimbangan, mencoba menerima kenyataan bahwa semua yang Anda baca mungkin sudah terjadi. Jika Anda menunjukkan kepada pemburu-pengumpul dunia kenyamanan, teknologi, dan kelimpahan kita yang tak ada habisnya, bagi mereka itu akan tampak seperti fiksi ajaib - dan kami berperilaku cukup rendah hati, tidak dapat mengakui bahwa transformasi yang tidak dapat dipahami yang sama menanti kami di masa depan.
Nick Bostrom menjelaskan tiga jalur yang dapat diambil oleh sistem AI yang sangat cerdas:
* Sebuah oracle yang dapat menjawab setiap pertanyaan yang tepat, termasuk pertanyaan sulit yang tidak dapat dijawab oleh manusia - misalnya, "bagaimana membuat mesin mobil lebih efisien?" Google adalah tipe primitif dari "oracle".
* Seorang jin yang akan menjalankan perintah tingkat tinggi apa pun - menggunakan assembler molekuler untuk membuat versi mesin mobil baru yang lebih efisien - dan akan menunggu perintah berikutnya.
* Seorang penguasa yang akan memiliki akses luas dan kemampuan untuk berfungsi secara bebas di dunia, membuat keputusan sendiri dan meningkatkan proses. Dia akan menemukan cara transportasi pribadi yang lebih murah, lebih cepat dan lebih aman daripada mobil.
Pertanyaan-pertanyaan dan tugas-tugas ini, yang tampaknya sulit bagi kita, akan tampak oleh sistem supercerdas seolah-olah seseorang meminta untuk memperbaiki situasi "pensil saya jatuh dari meja", di mana Anda cukup mengambilnya dan meletakkannya kembali.
Eliezer Yudkowski, seorang spesialis Amerika dalam kecerdasan buatan, menjelaskannya dengan baik:
“Tidak ada masalah yang sulit, hanya masalah yang sulit untuk tingkat kecerdasan tertentu. Naik satu langkah lebih tinggi (dalam hal kecerdasan), dan beberapa masalah tiba-tiba akan berpindah dari kategori "mustahil" ke kubu "jelas". Satu langkah lebih tinggi - dan semuanya akan menjadi jelas."
Ada banyak ilmuwan, penemu, dan pengusaha yang tidak sabaran yang telah memilih zona nyaman yang percaya diri dari meja kami, tetapi kami hanya membutuhkan satu panduan untuk berjalan menuju yang terbaik di dunia terbaik ini.
Ray Kurzweil ambigu. Beberapa mengidolakan ide-idenya, beberapa membencinya. Beberapa tetap di tengah - Douglas Hofstadter, mendiskusikan ide-ide buku Kurzweil, dengan fasih mencatat bahwa "seolah-olah Anda mengambil banyak makanan enak dan sedikit kotoran anjing, dan kemudian mencampur semuanya sedemikian rupa sehingga tidak mungkin untuk dipahami. apa yang baik dan apa yang buruk."
Apakah Anda menyukai ide-idenya atau tidak, tidak mungkin untuk melewatkannya tanpa bayangan ketertarikan. Dia mulai menciptakan berbagai hal saat remaja, dan pada tahun-tahun berikutnya dia menemukan beberapa hal penting, termasuk pemindai flatbed pertama, pemindai pertama yang mengubah teks menjadi ucapan, penyintesis musik Kurzweil yang terkenal (piano elektrik asli pertama), dan pengenalan suara pertama yang sukses secara komersial. Dia juga penulis lima buku sensasional. Kurzweil dihargai karena prediksinya yang berani, dan rekam jejaknya cukup baik - di akhir tahun 80-an, ketika Internet masih dalam masa pertumbuhan, ia memperkirakan bahwa pada tahun 2000-an Web akan menjadi fenomena global. The Wall Street Journal menyebut Kurzweil sebagai "jenius yang gelisah," Forbes sebagai "mesin berpikir global," Inc. Majalah - "Pewaris sah Edison", Bill Gates - "yang terbaik dari mereka yang memprediksi masa depan kecerdasan buatan." Pada 2012, salah satu pendiri Google Larry Page mengundang Kurzweil ke posisi CTO. Pada tahun 2011, ia ikut mendirikan Universitas Singularitas, yang diselenggarakan oleh NASA dan sebagian disponsori oleh Google.
Biografinya penting. Ketika Kurzweil berbicara tentang visinya tentang masa depan, kedengarannya seperti orang gila, tetapi hal yang benar-benar gila tentang itu adalah bahwa dia jauh dari gila - dia adalah orang yang sangat cerdas, berpendidikan, dan waras. Anda mungkin berpikir dia salah dalam prediksinya, tetapi dia tidak bodoh. Prediksi Kurzweil dibagikan oleh banyak pakar zona nyaman, Peter Diamandis dan Ben Herzel. Inilah yang menurutnya akan terjadi.
Kronologi
Kurzweil percaya bahwa komputer akan mencapai tingkat kecerdasan buatan umum (AGI) pada tahun 2029, dan pada tahun 2045 kita tidak hanya akan memiliki kecerdasan buatan, tetapi juga dunia yang sama sekali baru - waktu yang disebut singularitas. Kronologi AI-nya masih dianggap sangat berlebihan, tetapi selama 15 tahun terakhir, perkembangan pesat sistem kecerdasan buatan (AI) yang sangat terfokus telah memaksa banyak ahli untuk berpihak pada Kurzweil. Prediksinya masih lebih ambisius daripada survei Bostrom (AGI pada 2040, ISI pada 2060), tetapi tidak banyak.
Menurut Kurzweil, Singularitas 2045 didorong oleh tiga revolusi simultan dalam bioteknologi, nanoteknologi dan, yang lebih penting, AI. Tetapi sebelum kita melanjutkan - dan nanoteknologi mengikuti dengan cermat kecerdasan buatan - mari kita luangkan waktu sejenak untuk nanoteknologi.
Beberapa kata tentang nanoteknologi
Kami biasanya menyebut teknologi nanoteknologi yang berhubungan dengan manipulasi materi dalam kisaran 1-100 nanometer. Nanometer adalah sepersejuta meter, atau sepersejuta milimeter; dalam kisaran 1-100 nanometer, virus (diameter 100 nm), DNA (lebar 10 nm), molekul hemoglobin (5 nm), glukosa (1 nm) dan lainnya dapat ditampung. Jika nanoteknologi pernah menjadi subjek kita, langkah selanjutnya adalah memanipulasi atom individu yang kurang dari satu urutan besarnya (~, 1 nm).
Untuk memahami di mana manusia mengalami masalah yang mencoba memanipulasi materi dalam skala seperti itu, mari kita beralih ke skala yang lebih besar. Stasiun Luar Angkasa Internasional berada 481 kilometer di atas Bumi. Jika manusia adalah raksasa dan menabrak ISS dengan kepala mereka, mereka akan menjadi 250.000 kali lebih besar dari sekarang. Jika Anda memperbesar sesuatu dari 1 hingga 100 nanometer 250.000 kali, Anda mendapatkan 2,5 sentimeter. Nanoteknologi setara dengan manusia, mengorbit ISS, mencoba memanipulasi benda seukuran sebutir pasir atau bola mata. Untuk mencapai tingkat berikutnya - kontrol atom individu - raksasa harus hati-hati memposisikan objek dengan diameter 1/40 milimeter. Orang biasa akan membutuhkan mikroskop untuk melihatnya.
Untuk pertama kalinya, Richard Feynman berbicara tentang nanoteknologi pada tahun 1959. Kemudian dia berkata: “Prinsip-prinsip fisika, sejauh yang saya tahu, tidak menentang kemungkinan mengendalikan hal-hal atom demi atom. Pada prinsipnya, seorang fisikawan dapat mensintesis bahan kimia apa pun yang telah ditulis oleh seorang ahli kimia. Bagaimana? Dengan menempatkan atom di tempat yang dikatakan ahli kimia untuk mendapatkan zat tersebut.” Ini adalah seluruh kesederhanaan. Jika Anda tahu cara memindahkan molekul atau atom individu, Anda dapat melakukan hampir semua hal.
Nanoteknologi menjadi bidang ilmiah yang serius pada tahun 1986 ketika insinyur Eric Drexler mempresentasikan fondasinya dalam buku maninya Machines of Creation, tetapi Drexler sendiri percaya bahwa mereka yang ingin mempelajari lebih lanjut tentang ide-ide modern dalam nanoteknologi harus membaca bukunya tahun 2013. Kelimpahan Penuh (Radikal) Kelimpahan).
Beberapa kata tentang "grey goo"
Kami mempelajari lebih dalam tentang nanoteknologi. Secara khusus, topik "grey goo" adalah salah satu topik yang sangat tidak menyenangkan di bidang nanoteknologi, yang tidak dapat diabaikan. Versi lama dari teori nanoteknologi mengusulkan metode perakitan nano yang melibatkan penciptaan triliunan robot nano kecil yang akan bekerja sama untuk menciptakan sesuatu. Salah satu cara untuk membuat triliunan nanorobot adalah dengan membuat satu yang dapat mereplikasi diri, yaitu dari satu menjadi dua, dari dua menjadi empat, dan seterusnya. Beberapa triliun nanorobot akan muncul dalam sehari. Ini adalah kekuatan pertumbuhan eksponensial. Lucu, bukan?
Lucu memang, tapi justru sampai mengarah ke kiamat. Masalahnya adalah kekuatan pertumbuhan eksponensial, yang menjadikannya cara yang cukup nyaman untuk dengan cepat membuat satu triliun nanobot, membuat replikasi diri menjadi hal yang menakutkan dalam jangka panjang. Bagaimana jika sistem macet, dan bukannya menghentikan replikasi untuk beberapa triliun, nanobot terus berkembang biak? Bagaimana jika seluruh proses ini bergantung pada karbon? Biomassa Bumi mengandung 10^45 atom karbon. Sebuah nanobot harus berada di urutan 10^6 atom karbon, jadi 10^39 nanobot akan melahap semua kehidupan di Bumi hanya dalam 130 ulangan. Lautan nanobot ("grey goo") akan membanjiri planet ini. Para ilmuwan berpikir bahwa nanobots dapat mereplikasi dalam 100 detik, yang berarti bahwa kesalahan sederhana dapat membunuh semua kehidupan di Bumi hanya dalam 3,5 jam.
Bisa lebih buruk lagi - jika teroris dan spesialis yang tidak menguntungkan sampai ke tangan nanoteknologi. Mereka dapat membuat beberapa triliun nanobot dan memprogramnya untuk diam-diam menyebar ke seluruh dunia dalam beberapa minggu. Kemudian, dengan satu sentuhan tombol, hanya dalam 90 menit mereka akan memakan semuanya, tanpa ada kesempatan.
Sementara cerita horor ini telah dibahas secara luas selama bertahun-tahun, kabar baiknya adalah bahwa itu hanya cerita horor. Eric Drexler, yang menciptakan istilah "grey goo", baru-baru ini mengatakan sebagai berikut: "Orang-orang menyukai cerita horor, dan ini adalah salah satu cerita horor zombie. Ide ini sendiri sudah memakan otak."
Begitu kita sampai ke dasar nanoteknologi, kita bisa menggunakannya untuk membuat perangkat teknis, pakaian, makanan, bioproduk - sel darah, pejuang virus dan kanker, jaringan otot, dan sebagainya - apa saja. Dan di dunia yang menggunakan nanoteknologi, biaya suatu bahan tidak lagi terikat pada kelangkaannya atau kerumitan proses pembuatannya, melainkan pada kerumitan struktur atomnya. Dalam dunia nanoteknologi, berlian bisa lebih murah daripada penghapus.
Kami bahkan belum dekat. Dan tidak sepenuhnya jelas apakah kita meremehkan atau melebih-lebihkan kompleksitas jalan ini. Namun, semuanya berjalan ke titik bahwa nanoteknologi tidak jauh. Kurzweil berasumsi bahwa pada tahun 2020-an kita akan memilikinya. Negara-negara dunia tahu bahwa nanoteknologi dapat menjanjikan masa depan yang cerah, dan oleh karena itu mereka menginvestasikan miliaran di dalamnya.
Bayangkan saja kemungkinan apa yang akan didapat komputer super cerdas jika sampai ke assembler skala nano yang andal. Tapi nanoteknologi adalah ide kami, dan kami mencoba mengendarainya, itu sulit bagi kami. Bagaimana jika itu hanya lelucon untuk sistem ISI, dan ISI sendiri muncul dengan teknologi yang akan berkali-kali lebih kuat daripada apa pun yang pada prinsipnya dapat kita asumsikan? Kami sepakat: tidak ada yang bisa membayangkan kemampuan superintelligence buatan apa? Diyakini bahwa otak kita tidak dapat memprediksi bahkan seminimal mungkin apa yang akan terjadi.
Apa yang bisa AI lakukan untuk kita?
Berbekal superintelligence dan semua teknologi yang bisa diciptakan superintelligence, ISI mungkin akan mampu menyelesaikan semua masalah umat manusia. Pemanasan global? ISI pertama-tama akan menghentikan emisi karbon dengan menciptakan sejumlah cara efisien untuk menghasilkan energi yang tidak terkait dengan bahan bakar fosil. Dia kemudian akan menemukan cara yang efektif dan inovatif untuk menghilangkan kelebihan CO2 dari atmosfer. Kanker dan penyakit lainnya? Bukan masalah - perawatan kesehatan dan obat-obatan akan berubah dengan cara yang tidak terbayangkan. Kelaparan dunia? ISI akan menggunakan nanoteknologi untuk membuat daging yang identik dengan daging asli dari awal.
Nanoteknologi akan mampu mengubah tumpukan sampah menjadi tong berisi daging segar atau makanan lain (bahkan tidak harus dalam bentuk biasa - bayangkan sebuah kubus apel raksasa) dan mendistribusikan semua makanan ini ke seluruh dunia menggunakan sistem transportasi canggih. Tentu saja, ini akan bagus untuk hewan yang tidak lagi harus mati untuk makanan. ISI juga dapat melakukan banyak hal lain, seperti melestarikan spesies yang terancam punah, atau bahkan membawa kembali spesies yang telah punah dari DNA yang tersimpan. ISI dapat memecahkan masalah ekonomi makro kami yang paling sulit - debat ekonomi kami yang paling sulit, masalah etika dan filosofis, perdagangan global - yang semuanya akan sangat jelas bagi ISI.
Tapi ada sesuatu yang sangat istimewa yang bisa dilakukan ISI untuk kita. Memikat dan menggoda yang akan mengubah segalanya: ISI dapat membantu kita mengatasi kematian … Secara bertahap memahami kemampuan AI, mungkin Anda akan mempertimbangkan kembali semua ide Anda tentang kematian.
Tidak ada alasan bagi evolusi untuk memperpanjang umur kita lebih lama dari sekarang. Jika kita hidup cukup lama untuk melahirkan dan membesarkan anak-anak ke titik di mana mereka dapat berjuang sendiri, evolusi sudah cukup. Dari sudut pandang evolusi, 30+ tahun sudah cukup untuk perkembangan, dan tidak ada alasan mutasi untuk memperpanjang hidup dan mengurangi nilai seleksi alam. William Butler Yates menyebut spesies kita "jiwa yang melekat pada hewan yang sekarat." Tidak banyak menyenangkan.
Dan karena kita semua akan mati suatu hari nanti, kita hidup dengan gagasan bahwa kematian tidak dapat dihindari. Kami berpikir tentang penuaan dari waktu ke waktu - terus bergerak maju dan tidak mampu menghentikan proses ini. Tetapi pikiran tentang kematian itu berbahaya: ditangkap olehnya, kita lupa untuk hidup. Richard Feynman menulis:
“Ada hal yang luar biasa dalam biologi: tidak ada dalam ilmu ini yang berbicara tentang perlunya kematian. Jika kita ingin membuat mesin gerak abadi, kita menyadari bahwa kita telah menemukan cukup banyak hukum dalam fisika yang menunjukkan ketidakmungkinan ini, atau bahwa hukum itu salah. Tetapi tidak ada dalam biologi yang menunjukkan kematian yang tak terhindarkan. Ini membuat saya percaya bahwa itu tidak bisa dihindari, dan hanya masalah waktu sebelum ahli biologi menemukan penyebab masalah ini, penyakit universal yang mengerikan ini, akan disembuhkan."
Faktanya adalah bahwa penuaan tidak ada hubungannya dengan waktu. Penuaan adalah ketika bahan fisik tubuh aus. Suku cadang mobil juga menurun - tetapi apakah penuaan tidak dapat dihindari? Jika Anda memperbaiki mobil Anda karena suku cadangnya aus, itu akan bertahan selamanya. Tubuh manusia tidak berbeda - hanya lebih kompleks.
Kurzweil berbicara tentang nanobot cerdas yang terhubung dengan Wi-Fi dalam aliran darah yang dapat melakukan banyak tugas untuk kesehatan manusia, termasuk secara teratur memperbaiki atau mengganti sel-sel yang aus di bagian tubuh mana pun. Memperbaiki proses ini (atau menemukan alternatif yang disarankan oleh ASI yang lebih cerdas) tidak hanya akan menjaga kesehatan tubuh, tetapi juga dapat membalikkan penuaan. Perbedaan antara tubuh 60 tahun dan 30 tahun adalah beberapa masalah fisik yang dapat diperbaiki dengan teknologi yang tepat. ISI dapat membuat mobil yang akan dimasuki seseorang saat berusia 60 tahun dan keluar saat berusia 30 tahun.
Bahkan otak yang rusak dapat diperbarui. ISI pasti tahu bagaimana melakukan ini tanpa mempengaruhi data otak (kepribadian, ingatan, dll.). Seorang pria berusia 90 tahun yang menderita degradasi otak total dapat menjalani pelatihan ulang, pembaruan, dan kembali ke awal hidupnya. Ini mungkin tampak tidak masuk akal, tetapi tubuh adalah segelintir atom, dan ISI tentu saja dapat dengan mudah memanipulasinya, struktur atom apa pun. Ini tidak begitu absurd.
Kurzweil juga percaya bahwa bahan buatan akan semakin terintegrasi ke dalam tubuh seiring berjalannya waktu. Sebagai permulaan, organ dapat diganti dengan versi mesin super canggih yang akan bertahan selamanya dan tidak pernah gagal. Kemudian kita bisa melakukan desain ulang tubuh yang lengkap, mengganti sel darah merah dengan nanobot sempurna yang bergerak sendiri, menghilangkan kebutuhan akan jantung sama sekali. Kita juga dapat meningkatkan kemampuan kognitif kita, mulai berpikir miliaran kali lebih cepat, dan mengakses semua informasi yang tersedia bagi umat manusia melalui cloud.
Kemungkinan untuk memahami cakrawala baru akan benar-benar tidak terbatas. Orang telah berhasil memberikan seks dengan tujuan baru, mereka melakukannya untuk kesenangan, bukan hanya untuk reproduksi. Kurzweil percaya kita bisa melakukan hal yang sama dengan makanan. Nanobots dapat memberikan nutrisi ideal langsung ke sel-sel tubuh, memungkinkan zat-zat yang tidak sehat melewati tubuh. Ahli teori nanoteknologi Robert Freitas telah mengembangkan pengganti sel darah, yang, ketika diterapkan dalam tubuh manusia, dapat membuatnya tidak bernapas selama 15 menit - dan ini ditemukan oleh seseorang. Bayangkan kapan ISI akan mendapatkan kekuasaan.
Bagaimanapun, Kurzweil percaya bahwa manusia akan mencapai titik di mana mereka menjadi sepenuhnya buatan; waktu ketika kita melihat bahan-bahan biologis dan berpikir tentang betapa primitifnya mereka; Saatnya kita akan membaca tentang tahap awal sejarah manusia, takjub melihat bagaimana kuman, kecelakaan, penyakit, atau usia tua bisa membunuh seseorang di luar kehendaknya. Pada akhirnya, manusia akan mengalahkan biologi mereka sendiri dan menjadi abadi - ini adalah jalan menuju sisi bahagia balok keseimbangan yang telah kita bicarakan sejak awal. Dan orang-orang yang percaya akan hal ini juga yakin bahwa masa depan seperti itu menanti kita dengan sangat, segera.
Anda mungkin tidak akan terkejut bahwa ide Kurzweil telah menuai kritik keras. Singularitasnya pada tahun 2045 dan kehidupan abadi selanjutnya bagi orang-orang disebut "peningkatan kutu buku" atau "penciptaan orang-orang cerdas dengan IQ 140". Yang lain mempertanyakan kerangka waktu optimis, pemahaman tentang tubuh dan otak manusia, mengingatkan hukum Moore, yang belum hilang. Untuk setiap ahli yang percaya pada ide Kurzweil, ada tiga yang menganggapnya salah.
Tetapi hal yang paling menarik tentang ini adalah bahwa sebagian besar ahli yang tidak setuju dengannya, secara keseluruhan, tidak mengatakan bahwa ini tidak mungkin. Alih-alih mengatakan "omong kosong, ini tidak akan pernah terjadi", mereka mengatakan sesuatu seperti "semua ini akan terjadi jika kita sampai ke ISI, tapi inilah masalahnya." Bostrom, salah satu pakar AI terkenal yang memperingatkan bahaya AI, juga mengakui:
“Hampir tidak ada masalah tersisa yang tidak dapat dipecahkan oleh superintelijen, atau bahkan membantu kita memecahkannya. Penyakit, kemiskinan, perusakan lingkungan, segala jenis penderitaan - semua kecerdasan super ini dengan bantuan nanoteknologi dapat diselesaikan dalam sekejap. Superintelligence juga dapat memberi kita umur tak terbatas dengan menghentikan dan membalikkan proses penuaan menggunakan nanomedicine atau kemampuan untuk mengunggah kita ke cloud. Superintelligence juga dapat menciptakan peluang untuk peningkatan kemampuan intelektual dan emosional tanpa akhir; dia dapat membantu kita menciptakan dunia di mana kita akan hidup dalam sukacita dan pengertian, mendekati cita-cita kita dan secara teratur mewujudkan impian kita."
Ini adalah kutipan dari salah satu kritikus Kurzweil, yang mengakui bahwa semua ini mungkin jika kita dapat membuat ASI yang aman. Kurzweil hanya mendefinisikan apa yang seharusnya menjadi superintelijen buatan, jika memungkinkan. Dan jika dia adalah tuhan yang baik.
Kritik yang paling jelas dari para pendukung zona nyaman adalah bahwa mereka bisa salah ketika menilai masa depan ISI. Dalam bukunya The Singularity, Kurzweil mencurahkan 20 halaman dari 700 potensi ancaman ISI. Pertanyaannya bukan kapan kita sampai di ISI, pertanyaannya adalah apa yang akan menjadi motivasinya. Kurzweil menjawab pertanyaan ini dengan hati-hati: “ISI berasal dari banyak upaya yang berbeda dan akan sangat terintegrasi ke dalam infrastruktur peradaban kita. Bahkan, itu akan tertanam erat di tubuh dan otak kita. Dia akan mencerminkan nilai-nilai kita karena dia akan menjadi satu dengan kita.”
Tetapi jika jawabannya adalah, mengapa begitu banyak orang pintar di dunia ini khawatir tentang masa depan kecerdasan buatan? Mengapa Stephen Hawking mengatakan bahwa perkembangan ISI "bisa berarti akhir dari umat manusia"? Bill Gates mengatakan dia "tidak mengerti orang-orang yang tidak peduli" tentang hal itu. Elon Musk takut kita "memanggil setan." Mengapa banyak ahli menganggap ISI sebagai ancaman terbesar bagi kemanusiaan?
Kita akan membicarakan ini lain kali.