Konsep "juggernaut" yang pertama kali diperkenalkan oleh Anthony Giddens, seorang sosiolog asal Inggris dalam "The Consequences of Modernity" (1990), adalah sebuah kekuatan raksasa yang sulit dikendalikan, yang terus bergerak maju dan bisa meratakan apa pun di jalannya. Konsep ini digunakan Giddens untuk menggambarkan modernitas sebagai proses sosial yang sangat kuat, penuh dinamika dan perubahan cepat, namun juga membawa risiko besar dan ketidakpastian.
Juggernaut adalah gambaran truk raksasa yang dengan terhuyung-huyung melaju sangat kencang dan menabrak serta melindas apa saja, siapa saja yang ada di depannya, termasuk yang menghalangi jalannya. Seperti kejadian truk tronton membawa kontainer berat 20 ton penyebab kecelakaan maut di Balikpapan pada 21 Januari 2022.
AI hari ini masih berada di ranah Artificial Narrow Intelligence (ANI), AI yang paling muda atau primitif. Ketika saya bertanya kepada Chat-GPT4, yang mengaku sebagai AI generatif, ia setuju bahwa perkembangan kecerdasan buatan (AI) sangat layak disebut sebagai fenomena "juggernaut" dalam pengertian sosiologis menurut Anthony Giddens. Karena AI adalah kekuatan transformasional besar—AI mengubah cara kerja, ekonomi, pendidikan, militer, komunikasi, dan bahkan hubungan sosial.
Inovasi AI berkembang sangat cepat, dan regulasi atau etika sering tertinggal dan terasa sangat sulit dikendalikan. Ini menciptakan ketidakpastian dan risiko sistemik. Dibentuk oleh manusia, tapi melampaui kendali manusia. Hal ini sama seperti gagasan juggernaut tentang modernitas:
AI adalah ciptaan manusia, tapi perjalanannya menciptakan konsekuensi yang tidak bisa sepenuhnya diprediksi atau dihentikan. Berisiko ganda—membawa manfaat besar (efisiensi, produktivitas, inovasi) dan ancaman besar (pengangguran massal, disinformasi, bias algoritmik, hingga ancaman eksistensial). AI adalah bagian dari modernitas yang terus bergerak maju, menciptakan "tatanan dunia baru" yang penuh potensi, tapi juga penuh bahaya, dan masyarakat harus merespons secara reflektif dan bijak agar tidak tergilas oleh lajunya sendiri.
Generatif dan Agentik
Ilustrasi Talenta Digital di bidang Artificial Intelligence (AI). Foto: Abid Raihan/kumparan
AI Generatif (Generative AI) adalah AI yang menghasilkan konten baru berdasarkan pola dari data yang telah dipelajari. AI Agentik (Agentic AI / Autonomous Agents) adalah AI yang bertindak sebagai agen otonom, artinya ia bisa mengambil keputusan sendiri, merancang rencana, dan menjalankan tindakan berdasarkan tujuan tertentu.
Ia adalah awal dari AGI, Artificial General Intelligence, yang mampu berpikir seperti—mendekati atau setara—manusia, atau bahkan sedikit di atas manusia. Contohnya adalah self-driving cars. Bersifat dinamis, proaktif, dan bisa beroperasi lebih independen. AI generatif seperti seniman digital, diperintah kemudian bekerja. Termasuk dengan perintah prompt. AI agentik seperti asisten pribadi cerdas. Diberi misi, memecahnya menjadi tugas, menyelesaikannya, dan melapor kembali.
Perkiraan optimistis (tercepat) AGI menjadi ANI adalah antara 5-10 tahun ke depan. Ray Kurzweil dan tim di OpenAI serta DeepMind, memperkirakan AGI bisa muncul sekitar 2030, dengan alasan: pertumbuhan eksponensial komputasi, model bahasa besar, dan kemajuan integrasi multimodal dan agen.
Sementara itu, perkiraan moderatnya adalah 20-40 tahun. Banyak peneliti memperkirakan AGI baru akan muncul antara 2040–2060, dengan alasan meski performa AI meningkat, AGI butuh lebih dari sekadar pemrosesan statistik—ia butuh understanding, agency, dan reasoning mendalam.
Sedangkan perkiraan skeptis adalah 50 tahun ke depan, atau bahkan tidak pernah. Tokoh seperti Gary Marcus atau Noam Chomsky berpendapat bahwa AGI mungkin tidak akan tercapai dengan pendekatan yang sekarang (berbasis neural network), dengan alasan AI saat ini tidak benar-benar memahami makna, sebab-akibat, atau akal sehat manusia.
Faktor yang mempengaruhi cepat atau lambatnya masuk ke era AGI adalah kemajuan dalam arsitektur AI baru (misalnya neurosimbolik), ketersediaan data dan energi (AGI memerlukan sumber daya besar), kolaborasi, dan regulasi global; pemahaman tentang otak manusia; dan respons sosial dan etika.
Artificial Super Intelligence (ASI), Mungkinkah?
Ilustrasi robot yang bisa bekerja sendiri. Foto: Blue Planet Studio/Shutterstock
Pertanyaan mengenai apakah Artificial Super Intelligence (ASI)—yaitu AI yang melebihi kecerdasan manusia dalam hampir semua bidang—mungkin tercapai, adalah salah satu topik paling rumit dan kontroversial dalam teori dan pengembangan AI. Kelompok "optimistis" misalnya futuris terkenal, Ray Kurzweil, memperkirakan bahwa ASI bisa muncul sekitar tahun 2045 berdasarkan laju percepatan teknologi.
Teknologi neural networks dan komputasi kuantum dianggap sebagai langkah menuju peningkatan kecerdasan AI yang belum terbayangkan. ASI akan muncul ketika kompleksitas dan kecanggihan AI melampaui kapasitas manusia dalam hampir semua aspek kognisi.
Kelompok skeptis berpendapat bahwa ASI adalah hal yang tidak pasti dan meragukan kemungkinan ASI dengan alasan bahwa ketidakpastian teknologi: pertama, ada banyak hal yang masih tidak kita pahami tentang bagaimana otak manusia bekerja dan bagaimana kesadaran muncul—apakah kita bisa meniru atau melampaui proses tersebut?
Kedua, batasan arsitektur AI: AI saat ini berfokus pada pemrosesan data dan pola, tetapi untuk mencapai kecerdasan superior dan general, kita mungkin memerlukan pendekatan yang sama sekali baru. Ketiga, kompleksitas yang tinggi: Menciptakan kecerdasan yang melebihi manusia di banyak aspek (seperti emosi, etika, kreativitas, dan lainnya) masih sangat jauh dari kenyataan saat ini.
Ada setidaknya tiga tantangan besar dalam mencapai ASI. Pertama, kita belum tahu bagaimana kesadaran muncul di manusia, jadi meniru atau melebihi kecerdasan manusia secara keseluruhan sulit. Kedua kompleksitas dunia nyata: ASI tidak hanya akan perlu memproses data, tetapi juga memahami dunia secara holistik (etika, budaya, konteks sosial). Ketiga, pengendalian dan risiko: Jika ASI terwujud, ada potensi bahwa tidak ada manusia yang dapat mengendalikan kecerdasan yang jauh lebih besar—yang menjadi ancaman bagi keselamatan manusia.
Tidak ada konsensus tentang waktu kapan ASI bakal tercipta. Perkiraan "optimistis" antara 2050-2070—jika kemajuan teknologi terus berlanjut dengan kecepatan saat ini. Perkiraan skeptis: tidak pernah—beberapa ahli percaya kita mungkin tidak akan pernah mencapai tahap ini karena batasan fisik dan filosofis.
Nick Bostrom (filosof dan penulis "Superintelligence"):
Bisa jadi (ASI) tercapai, tapi harus hati-hati dengan potensi bahaya.
Nick Bostrom, penulis Superintelligence
Berhati-hati tentang potensi ancaman ASI dan mengusulkan regulasi ketat.
Elon Musk, pendiri Space-X dan Tesla
Optimis tetapi mengakui banyak tantangan besar yang harus dihadapi untuk mencapai ASI.
Geoffrey Hinton, pionir AI
Jadi, meskipun kemajuan AI sangat pesat dan optimisme tentang potensi ASI ada, tantangan teknis dan etis masih sangat besar. Kita mungkin akan melihat perkembangan yang signifikan dalam AGI terlebih dahulu, dan ASI mungkin tetap menjadi spekulasi jauh di masa depan—atau bahkan tidak tercapai sama sekali.
"Balapan" Mengalahkan Kecerdasan Manusia
Peta Mikroprosesor Dunia Foto: Riant Nugroho
Ada kenyataan bahwa ada "balapan" besar di dunia teknologi, di mana perusahaan-perusahaan dan negara-negara berlomba-lomba untuk mengembangkan AI yang lebih cerdas, sering kali tanpa memperhitungkan konsekuensi jangka panjangnya. Dalam banyak kasus, keinginan untuk menjadi yang pertama atau meraih keuntungan ekonomi dan geopolitik bisa memotivasi pengembangan AI yang terlalu cepat tanpa pengawasan yang memadai.
Balapan ini akan bermuara pada terbentuknya kondisi singularitas, dalam konteks teknologi, merujuk pada momen di mana kecerdasan buatan (AI) melebihi kemampuan manusia dalam berbagai aspek, termasuk kemampuan berpikir, belajar, dan menyelesaikan masalah.
Singularitas teknologi, fenomena yang dihela oleh perkembangan AI yang melampaui kemampuan kognitif manusia dan dapat secara mandiri meningkatkan dirinya sendiri, adalah skenario teoretis di mana pertumbuhan teknologi menjadi tidak terkendali dan tidak dapat dipilihkan. Ujungnya pada perubahan besar dan tak terduga pada peradaban manusia. Ray Kurzweil pada "The Singularity Is Nearer: When We Merge with AI" (2005) memperkirakan kondisi singularitas terjadi pada tahun 2045. Kesemuanya ditopang oleh "balapan" tersebut.
Alasan di balik "Balapan" AI adalah, pertama, persaingan global. Diyakini, siapa yang menguasai AI akan menguasai masa depan. Lihat saja balapan antara Amerika Serikat dan China. Kedua, keuntungan ekonomi yang gigantik. Termasuk keuntungan di sektor kesehatan hingga energi. Ke tiga, perkembangan teknologi yang makin cepat dan makin unstoppable.
AI memiliki potensi untuk meningkatkan kualitas hidup, menyelesaikan tantangan besar seperti perubahan iklim, atau bahkan revolusi dalam bidang kesehatan. Namun juga ada kekhawatiran: Terlalu cepatnya pengembangan AI tanpa pertimbangan matang bisa menimbulkan risiko yang tidak terkontrol.
Altman dan banyak inovator lainnya memang sangat optimistis, namun kita perlu memastikan bahwa ada kerangka kerja regulasi yang bisa menyeimbangkan semangat inovasi dengan keamanan dan keberlanjutan jangka panjang. Seiring dengan berkembangnya AI, kita juga harus mengembangkan prinsip-prinsip yang dapat mengarahkan pengembangan ini secara bertanggung jawab.
Dalam memandang perkembangan AI, saya senantiasa punya "reserve". Perkembangan AI secara praktik atau kenyataan didorong oleh tiga hal utama. Pertama, hasrat dari pelaku usaha untuk mendapatkan keuntungan yang besar dan cepat, lebih besar dari semuanya dan lebih cepat dari semuanya.
Kedua, hasrat dari para inovator untuk berlomba (race) untuk membuat AI yang dapat mengalahkan kecerdasan manusia, karena itu menjadi kehormatan baginya–dan sekaligus kekayaan yang luar biasa. Ketiga, hasrat dari komunitas AI yang semakin mengalami adiksi untuk segera hadirnya AI yang melampaui kecerdasan manusia. Selain itu, para penguasa politik semakin berhasrat untuk mempunyai teknologi yang dapat mengendalikan rakyat agar dapat terus berkuasa dan menikmati kekuasaan tersebut.
Harapan utamanya adalah menemukan instrumen yang paling efisien, paling efektif, paling murah, dan paling dapat diandalkan secara terus menerus. Ketika mereka tidak dapat mengandalkan manusia, maka satu-satunya yang dikehendaki adalah teknologi AI dengan algoritma yang dapat mengoperasikan kekuasaannya di atas manusia, di atas birokrasi dan sistem penyelenggaraan pemerintahan yang berbasiskan manusia, yang saat ini "menyebalkan" baginya, karena tidak dapat 100% patuh kepada keinginan dan perintahnya–apalagi hasrat berkuasa yang abnormal.
Dr. Geoffrey Hinton, yang sering dijuluki sebagai "Godfather of AI", mantan pemimpin Google, menyatakan keprihatinan yang serius terhadap arah perkembangan AI. Pertama, kemajuan AI yang terlalu cepat.
Saya dulu berpikir bahwa kita masih punya waktu puluhan tahun sebelum AI menyamai kecerdasan manusia. Sekarang saya rasa waktunya jauh lebih dekat dari itu."
Geoffrey Hinton, 2023
Ia terkejut dengan kecepatan luar biasa dari kemajuan AI, terutama dengan kemampuan AI generatif seperti GPT dan sistem multimodal lainnya. Kedua, potensi kehilangan kendali. Hinton memperingatkan bahwa kita bisa saja menciptakan AI yang terlalu cerdas dan tidak bisa lagi dikendalikan, terlebih jika AI mulai dapat menulis dan menjalankan kodenya sendiri, atau mengembangkan tujuan yang berbeda dari manusia.
Ketiga, penggunaan untuk manipulasi dan misinformasi. AI yang bisa memalsukan suara, gambar, dan video dengan sangat meyakinkan (deepfakes) menjadi alat propaganda yang sangat berbahaya. Ia khawatir ini dapat digunakan untuk mengganggu demokrasi dan menyebarkan disinformasi massal. Keempat, risiko militerisasi. Hinton juga khawatir AI akan digunakan dalam konteks senjata otonom, atau AI yang bisa mengambil keputusan untuk menyerang tanpa keterlibatan manusia.
Hinton yang dulunya cukup optimistis tentang AI telah mengubah pendiriannya setelah melihat apa yang mampu dilakukan oleh sistem-sistem AI generatif baru. Ia menyuarakan regulasi ketat terhadap AI canggih, terutama sistem yang digunakan secara luas dalam masyarakat; kemudian, transparansi dari perusahaan teknologi dalam mengembangkan model AI; dan kolaborasi global, termasuk pembentukan lembaga internasional untuk mengawasi AI seperti Badan Energi Atom Internasional (IAEA) tapi khusus untuk AI.
Ketiganya dapat diibaratkan seruan musafir di padang gurun yang tandus dan gersang karena ketiganya sangat sulit dicapai pada kondisi kekinian. Terutama dengan "3+1" pertimbangan di depan: hasrat laba, hasrat inovasi, adiksi AI, dan kekuasaan yang abnormal. Perkembangan AI dapat disangkakan sebagai sebuah juggernaut yang melampaui kemodernan yang pernah dibayangkan Giddens.
Keresahan Indonesia
Robot raksasa JINKI tipe Zero ver.2.0 didemonstrasikan pada Japan Robot Week di Tokyo Big Sight, Tokyo, Jepang, Rabu (18/9/2024). Foto: Issei Kato/REUTERS
Apa artinya untuk Indonesia? Pertama, menyadari bahwa kita masih di luar "orbit" rantai pasok (supply chain) AI global, khususnya di industri semikoduktor dan generatif AI, apalagi agentik. Bisnis AI berjalan di atas track geopolitik, di mana Indonesia pun masih di luar "orbit" geopolitik industri AI, karena Indonesia "bukan" menjadi salah satu "sekutu" dari pengembang industri AI terkuat dunia.
Pengendali teknologi masih di Silicon Valley, produsen mesin cetak semikonduktor di Belanda, dan kini China mulai mengembangkan. Produsen semikonduktor dikuasai Taiwan, Jepang, Korea, dan Israel. China berada di kubu lain. 46% pasar dikuasai Amerika, disusul Korea 21%, Jepang dan Uni Eropa masing-masing 9%. Malaysia masih jauh di belakang, apalagi Indonesia.
Kebijakan pengembangan AI di Indonesia yang dihela oleh regulasi-regulasi restruktif daripada insentif, terutama perpajakan yang cenderung eksesif, membuatnya semakin tidak menarik bagi pengembang AI. Indonesia juga masih tertinggal dalam mendayagunakan AI untuk berbagai layanan, khususnya layanan kesehatan. Indonesia semakin terdesak menjadi konsumen semata, sehingga gagal melihat the true and hidden reality dari perkembangan AI, sebagaimana dikemukakan di depan: 3+1.
Dengan menyadari realitas ini, maka tugas kedua, merumuskan peta jalan yang realistis–tidak sekadar idealis–sekaligus nasionalistis. Bukan peta jalan yang isinya cenderung hanya belanja AI dan "saudara-saudara"-nya. Apalagi, "mau"-nya lebih kepada mempunyai AI, dengan belanja AI terus bertambah, daripada sungguh-sungguh menjadi bagian dari rantai pasok global AI. Terlebih dengan melihat model peta jalan yang pernah saya temukan yang cenderung "introvert".
Ketiga, tetap melihat masa depan AI sebagai kesempatan dan peluang, namun sekaligus tantangan, bahkan ancaman, sehingga pendekatan (metode) yang disarankan bukan teknikal, teknologikal, proyeksional, apalagi sekadar ekstrapolarisasioal. Diperlukan metode skenario, teori risiko, dan game theory pada tingkat yang maju (advance) agar produk yang dihasilkan tidak menjadi sekadar produk formal kementerian, atau produk harapan nasional ala politisi atau teknologi.
Menghadirkan responsible AI nampaknya sia-sia, karena setiap algoritma sejak awal bias oleh kepentingan pembuatnya. AI bukan sekadar teknologi, namun peradaban, artinya irresponsible AI menghadirkan irresponsible civilization. Kotak Pandora sudah dibuka, masalah menjadi tidak mudah. Kita perlu cara yang jauh lebih cerdas dan upaya yang jauh lebih keras dari yang pernah kita lakukan dan bayangkan.
Tidak ada komentar:
Posting Komentar