Sepuluh tahun pembangunan
Bukan rahasia lagi bahwa kecerdasan buatan menembus lebih dalam dan lebih dalam ke dalam kehidupan orang-orang biasa di seluruh dunia. Ini difasilitasi oleh penyebaran global Internet dan peningkatan besar-besaran dalam daya komputasi. Jaringan saraf, yang memiliki kesamaan tertentu dengan otak manusia, telah memungkinkan untuk meningkatkan kinerja perangkat lunak yang dikembangkan secara kualitatif. Namun, ada beberapa poin yang memperjelas: jaringan saraf masih sangat jauh dari tingkat otak manusia, terutama dalam hal efisiensi energi, dan algoritme kerja masih sangat sulit untuk dipahami.
Uang untuk industri kecerdasan buatan, terlepas dari beberapa batasan dan kecelakaan tingkat tinggi dengan mobil self-driving, adalah sungai yang lebar. Tahun lalu, menurut Strategi Nasional yang disetujui, pasar untuk solusi TI di bidang ini melebihi $ 21,5 miliar. Entah berapa jumlahnya, tetapi hanya akan meningkat setiap tahun, dan pada tahun 2024 total AI di dunia secara kondisional akan menelan biaya 140 miliar, dan potensi pertumbuhan ekonomi dari pengenalan AI saat ini akan mencapai 1 triliun yang cukup layak. dolar. Sebenarnya, pengesahan Strategi Nasional tersebut oleh Presiden Vladimir Putin pada 10 Oktober 2019, merupakan upaya untuk mengikuti tren dunia. Pada saat yang sama, program itu sendiri menyatakan tidak hanya pengurangan kesenjangan dengan para pemimpin dunia, tetapi masuk ke dalam jumlah pemain top di pasar ini. Dan rencananya akan dilakukan pada tahun 2030. Di antara hambatan nyata di jalur ini adalah pernyataan proteksionis dari sejumlah negara bahwa perangkat lunak Rusia membawa potensi bahaya.
Di mana mereka akan mengimplementasikan kemampuan "tak terbatas" AI di tanah Rusia? Pertama-tama, ini adalah otomatisasi operasi rutin bersamaan dengan penggantian seseorang di industri berbahaya (baca: termasuk di tentara). Selanjutnya, pekerjaan serius direncanakan dengan data besar, yang telah dihasilkan seperti longsoran salju akhir-akhir ini. Diasumsikan bahwa mereka akan dapat meningkatkan perkiraan untuk keputusan manajemen, serta mengoptimalkan pemilihan dan pelatihan personel. Layanan kesehatan dengan pendidikan dalam waktu sepuluh tahun juga akan menjadi pengguna aktif AI. Dalam kedokteran, profilaksis, diagnostik, dosis obat dan bahkan pembedahan akan diberikan kepada mesin pikiran, sebagian atau seluruhnya. Di sekolah, AI akan terlibat dalam individualisasi proses pembelajaran, analisis kecenderungan anak untuk aktivitas profesional dan identifikasi awal pemuda berbakat. Dalam strategi tersebut dapat ditemukan ketentuan tentang "pengembangan dan penerapan modul pendidikan dalam program pendidikan semua jenjang pendidikan". Artinya, dasar-dasar AI akan diajarkan di sekolah?
Seperti biasa, selain hasil nyata dari pengembangan AI, komunitas ilmiah akan diminta untuk meningkatkan jumlah dan indeks kutipan artikel oleh ilmuwan Rusia di publikasi khusus dunia. Dan pada tahun 2024, yaitu, segera, jumlah warga negara dengan kompetensi AI akan meningkat di Rusia. Secara khusus, ini akan diwujudkan dengan menarik spesialis domestik dari luar negeri, serta menarik warga negara asing untuk mengerjakan topik ini di Rusia.
Namun, AI memiliki satu kualitas kontroversial, yang seharusnya ditangani dalam strategi dengan "mengembangkan aturan etika untuk interaksi manusia dengan kecerdasan buatan." Ternyata perhitungan dingin dari pikiran komputer menuntunnya untuk membuat generalisasi yang bias dan tidak adil.
bias AI
Di antara banyak pertanyaan tentang fungsi sistem AI modern, algoritma yang saat ini tidak sempurna untuk autopilot kendaraan roda menonjol, yang masih tidak memungkinkan mereka untuk secara hukum diizinkan untuk digunakan secara luas. Kemungkinan besar, di masa mendatang, kita tidak akan melihat mobil AI di jalan kita. Kondisi jalan kami tidak cocok untuk ini, dan iklim tidak mendukung penggunaan autopilot sepanjang tahun: lumpur dan salju akan dengan cepat "membutakan" sistem sensorik robot paling canggih. Selain itu, pengenalan besar-besaran AI pasti akan mengambil pekerjaan dari jutaan orang di seluruh dunia - mereka harus berlatih ulang atau menghabiskan sisa hari mereka dalam kemalasan. Adalah adil untuk mengatakan bahwa berbagai "Atlas profesi masa depan" bermodel baru kadang-kadang membawa omong kosong yang mencolok: di salah satunya, tertanggal 2015, pada 2020 baru, misalnya, profesi akuntan, pustakawan, korektor dan penguji harus telah menjadi usang. Namun, bagaimanapun, profil sebagian besar profesi akan berubah, dan faktor negatif AI akan berlaku di sini. Bagaimanapun, prospek pengenalan AI lebih lanjut ke masyarakat menimbulkan banyak pertanyaan bagi regulator pemerintah. Dan tampaknya hanya sedikit orang yang tahu bagaimana menyelesaikannya.
Masalah lain yang sudah membayangi adalah bias AI dalam pengambilan keputusan. Amerika adalah salah satu yang pertama menghadapi ini ketika sistem COMPAS diperkenalkan di 15 negara bagian untuk memprediksi kasus kambuhnya penjahat. Dan semuanya tampaknya dimulai dengan sangat baik: kami berhasil mengembangkan algoritme yang, berdasarkan kumpulan data (Big Data), membentuk rekomendasi tentang beratnya hukuman, rezim lembaga pemasyarakatan, atau pembebasan dini. Para programmer dengan tepat berpendapat bahwa di sore hari seorang hakim yang lapar dapat menanggung hukuman yang terlalu keras, dan yang cukup makan, sebaliknya, terlalu ringan. AI harus menambahkan perhitungan dingin ke prosedur ini. Tetapi ternyata COMPAS dan semua program serupa adalah rasis: AI dua kali lebih mungkin untuk secara keliru menyalahkan orang Afrika-Amerika untuk tingkat kekambuhan daripada orang kulit putih (45% berbanding 23%). AI umumnya menganggap penjahat berkulit terang sebagai orang dengan tingkat risiko rendah, karena mereka secara statistik cenderung tidak melanggar hukum - oleh karena itu, perkiraan untuk mereka lebih optimis. Dalam hal ini, di Amerika Serikat, semakin banyak suara terdengar tentang penghapusan AI dalam menyelesaikan masalah jaminan, hukuman, dan pembebasan awal. Pada saat yang sama, keadilan AS tidak ada hubungannya dengan kode program sistem ini - semuanya dibeli dari pengembang pihak ketiga. Sistem perangkat lunak Predpol, HunchLab, dan Series Finder yang beroperasi di jalan-jalan di banyak kota di seluruh dunia telah membuktikan keefektifannya secara statistik: kejahatan menurun, tetapi bukannya tanpa prasangka rasial. Yang paling menarik adalah kita tidak tahu "kecoak" apa lagi yang dijahit ke dalam otak buatan sistem ini, karena banyak parameter analisis yang diklasifikasikan. Ada juga keraguan bahwa pengembang sendiri memahami bagaimana AI membuat keputusan tertentu, parameter mana yang dianggap penting. Situasi serupa berkembang tidak hanya dalam penegakan hukum dan keadilan, tetapi juga di agen perekrutan. AI dalam banyak kasus memberikan preferensi untuk mempekerjakan pria muda, mengesampingkan kandidat jenis kelamin dan usia yang lebih lemah. Sungguh lucu bahwa nilai-nilai Barat, yang dengan begitu bersemangat mereka promosikan (kesetaraan jenis kelamin dan ras), diinjak-injak oleh pencapaian Barat terbaru - kecerdasan buatan.
Kesimpulan dari perjalanan kecil ke dalam teori dan praktik AI menyarankan hal berikut. Ini adalah satu hal ketika data kami dari jejaring sosial dan sumber lain diproses secara besar-besaran untuk tujuan pemasaran atau manipulasi politik, dan hal lain ketika pedang keadilan atau, lebih buruk lagi, gudang senjata keamanan nasional diserahkan kepada AI. Harga dari keputusan yang bias naik berkali-kali lipat, dan sesuatu perlu dilakukan untuk mengatasinya. Siapa pun yang berhasil dalam hal ini akan menjadi penguasa sejati abad XXI.