Bagaimana jika satu-satunya perkara yang anda boleh percayai adalah sesuatu atau seseorang yang cukup dekat untuk menyentuh secara fizikal? Itu mungkin dunia tempat AI membawa kita. Sekumpulan ahli akademik Harvard dan pakar kecerdasan buatan baru sahaja melancarkan laporan yang bertujuan meletakkan pagar beretika di sekeliling pembangunan teknologi yang berpotensi distopian seperti chatbot OpenAI yang disokong Microsoft, yang muncul dalam bentuk baharu dan “diperbaiki” (bergantung pada titik anda view) versi, GPT-4, minggu lepas.
Kumpulan itu, yang termasuk Glen Weyl, ahli ekonomi dan penyelidik Microsoft, Danielle Allen, ahli falsafah Harvard dan pengarah Pusat Etika Safra, dan ramai tokoh industri lain, sedang membunyikan loceng penggera tentang “banyak eksperimen dengan teknologi sosial terdesentralisasi” . Ini termasuk pembangunan “kandungan jana mesin yang sangat meyakinkan (cth. ChatGPT)” yang mengancam untuk mengganggu struktur ekonomi, politik dan masyarakat kita.
Mereka percaya kami telah mencapai “saat perlembagaan” perubahan yang memerlukan rangka kerja kawal selia yang baharu sepenuhnya untuk teknologi tersebut.
Beberapa risiko AI, seperti masa depan gaya Terminator di mana mesin memutuskan manusia telah menjalani hari mereka, adalah wilayah yang dipijak dengan baik dalam fiksyen sains – yang, harus diperhatikan, mempunyai rekod yang cukup baik untuk meramalkan di mana sains itu sendiri akan berlaku dalam tempoh 100 tahun yang lalu atau lebih. Tetapi ada lagi yang kurang difahami. Jika, sebagai contoh, AI kini boleh menjana ID palsu yang tidak dapat dikesan dengan sempurna, apakah faedah rangka kerja undang-undang dan tadbir urus yang bergantung pada dokumen sedemikian untuk membolehkan kami memandu, mengembara atau membayar cukai?
Satu perkara yang kita sedia maklum ialah AI boleh membenarkan pelakon jahat menyamar sebagai sesiapa sahaja, di mana-mana, pada bila-bila masa. “Anda perlu menganggap bahawa penipuan akan menjadi jauh lebih murah dan lebih berleluasa dalam era baharu ini,” kata Weyl, yang telah menerbitkan buku dalam talian dengan menteri digital Taiwan, Audrey Tang. Ini membentangkan risiko yang ditimbulkan oleh AI dan teknologi maklumat lanjutan lain kepada demokrasi, terutamanya bahawa mereka meletakkan masalah disinformasi pada steroid.
Dampak yang berpotensi menjangkau setiap aspek masyarakat dan ekonomi. Bagaimanakah kita akan tahu bahawa pemindahan dana digital adalah selamat atau sahih? Adakah notari dan kontrak dalam talian boleh dipercayai? Adakah berita palsu, yang sudah menjadi masalah besar, pada dasarnya tidak dapat dikesan? Dan bagaimana pula dengan kesan politik daripada jumlah gangguan pekerjaan yang tidak terkira, topik yang akan diterokai oleh ahli akademik Daron Acemoglu dan Simon Johnson dalam buku yang sangat penting pada akhir tahun ini.
Seseorang boleh dengan mudah membayangkan dunia di mana kerajaan bergelut untuk mengikuti perubahan ini dan, seperti yang dinyatakan oleh laporan Harvard, “proses demokrasi yang sedia ada dan sangat tidak sempurna terbukti tidak berdaya . . . dan dengan itu ditinggalkan oleh warga yang semakin sinis”.
Kami telah melihat firasat tentang ini. Pekan persendirian Texas yang dibina oleh Elon Musk untuk menempatkan pekerja SpaceX, Tesla, dan Syarikat Boringnya hanyalah lelaran terbaru fantasi libertarian Lembah Silikon di mana orang kaya berlindung di kawasan persendirian di New Zealand, atau memindahkan kekayaan dan perniagaan mereka ke dalam bidang kuasa luar kerajaan dan “zon ekonomi khas”. Ahli sejarah Wellesley, Quinn Slobodian menangani kebangkitan zon sedemikian dalam buku baharunya, Kapitalisme Retak.
Dalam senario ini, hasil cukai jatuh, bahagian buruh terhakis dan dunia jumlah sifar yang terhasil memburukkan lagi “exitocracy” golongan istimewa.
Sudah tentu, masa depan juga boleh menjadi lebih cerah. AI mempunyai potensi yang luar biasa untuk meningkatkan produktiviti dan inovasi, malah mungkin membolehkan kami mengagihkan semula kekayaan digital dengan cara baharu. Tetapi apa yang sudah jelas ialah syarikat tidak akan menarik balik membangunkan teknologi Web3 yang canggih, daripada AI kepada blockchain, secepat yang mereka boleh. Mereka melihat diri mereka berada dalam perlumbaan eksistensial antara satu sama lain dan China untuk masa depan.
Oleh itu, mereka sedang mencari cara untuk menjual bukan sahaja AI, tetapi penyelesaian keselamatan untuknya. Sebagai contoh, dalam dunia di mana kepercayaan tidak boleh disahkan secara digital, pembangun AI di Microsoft dan firma lain memikirkan sama ada mungkin terdapat kaedah untuk mencipta versi “rahsia yang dikongsi” yang lebih maju (atau perkara yang hanya anda dan individu rapat lain. mungkin tahu tentang) secara digital dan pada skala.
Walau bagaimanapun, itu kelihatan seperti menyelesaikan masalah teknologi dengan lebih banyak teknologi. Malah, penyelesaian terbaik untuk teka-teki AI, setakat yang ada, mungkin analog.
“Apa yang kami perlukan ialah rangka kerja untuk kewaspadaan yang lebih berhemat,” kata Allen, memetik laporan suruhanjaya presiden 2010 mengenai bioetika, yang dikeluarkan sebagai tindak balas kepada kebangkitan genomik. Ia mencipta garis panduan untuk eksperimen yang bertanggungjawab, yang membolehkan pembangunan teknologi yang lebih selamat (walaupun seseorang boleh menunjukkan maklumat baharu tentang kemungkinan kebocoran makmal dalam pandemik Covid-19, dan mengatakan bahawa tiada rangka kerja yang kalis di peringkat antarabangsa).
Buat masa ini, sebagai ganti sama ada mengharamkan AI atau mempunyai beberapa kaedah pengawalseliaan yang sempurna, kami mungkin bermula dengan memaksa syarikat untuk mendedahkan eksperimen yang mereka lakukan, apa yang berjaya, apa yang tidak dan di mana akibat yang tidak diingini mungkin muncul. Ketelusan ialah langkah pertama ke arah memastikan AI tidak mendapat kelebihan daripada pembuatnya.
rana.foroohar@ft.com
keluaran togeĺ sdy hari ini 2023