Mendekati Superintelijen AI? Kenali Tiga Jenis AI!

Dalam beberapa tahun terakhir, diskusi tentang kecerdasan buatan (AI) telah meningkat secara signifikan, terutama mengenai potensi AI superintelligent yang bisa jauh lebih cerdas daripada manusia. Sam Altman, CEO OpenAI, menyatakan melalui blognya bahwa pencapaian AI superintelligent mungkin bisa terjadi dalam waktu dekat. Hal senada turut diungkapkan oleh Masayoshi Son, Ketua Softbank, yang memperkirakan bahwa AI superintelligent dapat melampaui kemampuan otak manusia hingga 10.000 kali lipat pada tahun 2035.

AI dikategorikan dalam tiga tipe: kecerdasan buatan terbatas (Artificial Narrow Intelligence/ANI), kecerdasan buatan umum (Artificial General Intelligence/AGI), dan kecerdasan buatan super (Artificial Superintelligence/ASI). Saat ini, semua AI yang ada, mulai dari chatbot hingga mobil otonom, merupakan ANI yang dirancang untuk tujuan tertentu. Misalnya, model seperti ChatGPT hanyalah alat yang mampu menghasilkan teks berdasarkan data yang telah dipelajarinya tanpa memiliki kemampuan berpikir kritis seperti manusia.

AGI diharapkan menjadi langkah berikutnya setelah ANI. AGI didefinisikan sebagai kemampuan AI untuk berpikir setara dengan manusia. Beberapa tokoh, seperti Elon Musk, percaya bahwa AGI akan tercapai dalam waktu dua tahun, sementara CEO Anthropic, Dario Amodei, memperkirakan bisa terjadi paling lambat pada tahun 2026. Namun, tidak semua kalangan sepakat dengan prediksi ini. Sebagai contoh, Mustafa Suleyman dari Microsoft AI menyoroti ketidakpastian tinggi mengenai pencapaian AGI yang membuat pernyataan tegas terasa tidak berdasar.

Satu perkiraan menarik adalah kemajuan AI berpotensi terjadi lebih cepat setelah kita mencapai AGI. Konsep ini dikenal sebagai recursive self-improvement, di mana AI mampu mengembangkan versi yang lebih baik dari dirinya sendiri. Sam Altman berpendapat bahwa AI akan mengarah kita untuk menciptakan sistem AI generasi berikutnya dengan lebih efisien. Pertumbuhan yang pesat dalam kemampuan AI ini bisa mendorong negara ke dalam situasi yang dikenal sebagai "intelligence explosion", di mana AI dengan cepat melampaui kemampuan manusia.

Namun, potensi risiko dari AI superintelligent tidak bisa diabaikan. Beberapa ilmuwan, seperti Roman V. Yampolskiy, mengingatkan bahwa AI bisa berpotensi menyebabkan bencana eksistensial bagi umat manusia. Dengan kekuatan luar biasa, ASI berpotensi menyelesaikan masalah-masalah besar, seperti perubahan iklim atau penyakit yang sulit diobati. Namun, dapat pula muncul tantangan etis dan kontrol yang memicu kekhawatiran terkait keamanan.

Sebagai respons terhadap potensi bahaya ini, beberapa penelitian dan seruan telah diajukan. Misalnya, sebuah surat terbuka meminta penghentian sementara pengembangan AI berkapasitas tinggi, demi keamanan umat manusia. Namun, hingga saat ini, perkembangan AI terus berlanjut dengan OpenAI menekankan misi mereka untuk membangun AGI yang aman dan bermanfaat.

Meskipun banyak diskusi yang berfokus pada kapan atau apakah kita mencapai AI superintelligent, masih ada peluang bagi perusahaan teknologi untuk mengevaluasi kembali arah dan prioritas mereka. Yang pasti, perjalanan menuju AI yang lebih canggih—apakah itu AGI atau bahkan ASI—adalah topik yang akan terus mendapatkan perhatian dalam waktu dekat.

Exit mobile version