Eliezer Yudkowski: Biografi, Kreativitas, Karier, Kehidupan Pribadi

Daftar Isi:

Eliezer Yudkowski: Biografi, Kreativitas, Karier, Kehidupan Pribadi
Eliezer Yudkowski: Biografi, Kreativitas, Karier, Kehidupan Pribadi

Video: Eliezer Yudkowski: Biografi, Kreativitas, Karier, Kehidupan Pribadi

Video: Eliezer Yudkowski: Biografi, Kreativitas, Karier, Kehidupan Pribadi
Video: Eliezer Yudkowsky – AI Alignment: Why It's Hard, and Where to Start 2024, Mungkin
Anonim

Eliezer Shlomo Yudkowski adalah spesialis kecerdasan buatan Amerika yang meneliti masalah singularitas teknologi dan menganjurkan penciptaan Friendly AI. Dia adalah penulis beberapa cerita fiksi ilmiah di mana dia menggambarkan beberapa topik yang berkaitan dengan ilmu kognitif dan rasionalitas.

Eliezer Yudkowski
Eliezer Yudkowski

Eliezer Yudkowski: biografi

Eliezer Shlomo Yudkowsky adalah salah satu rasionalis paling aktif di Amerika modern, seorang peneliti komputer dan mempopulerkan gagasan "kecerdasan buatan yang ramah".

Lahir 11 September 1979. Salah satu pendiri dan peneliti di Institute for Machine Intelligence Research, sebuah organisasi penelitian nonpemerintah yang menerbitkan buku-bukunya. Eliezer Yudkowski adalah penulis novel filosofis Harry Potter dan Metode Rasionalisme, yang diterbitkan sebagian di Internet dari 2010 hingga 2015. Di dalamnya, Harry tumbuh dalam keluarga seorang ilmuwan Oxford dan, sebelum bepergian ke Hogwarts, belajar metode rasionalitas darinya.

Gambar
Gambar

Sejauh yang kami tahu, dia tidak memiliki hubungan dengan lingkaran "realis spekulatif". Namanya sering disebutkan sehubungan dengan Robin Hanson, selama beberapa tahun (dari 2006 hingga 2009) mereka adalah dua penulis utama blog "Overcoming Prejudice", yang didanai oleh Institute for the Future of Humanity di Oxford.

Terkadang nama Yudkowski dapat didengar sehubungan dengan Raymond Kurzweil. Dia adalah perwakilan filosofis dari komunitas techno-geek, tidak dapat diakses dan dimengerti, dengan demikian, untuk mayoritas publik kemanusiaan, yang hampir semua pembaca realis spekulatif milik. Hal ini tidak mengherankan, karena ia sering beralih ke bahasa logis-matematis, kesimpulan probabilistik dan statistik, diekspos menggunakan rumus dan tabel.

kepentingan ilmiah

Yudkowski adalah salah satu pendiri dan rekan di Singularity Institute for Artificial Intelligence (SIAI). Dia memberikan kontribusi besar bagi perkembangan lembaga. Dia adalah penulis buku "Creating Friendly AI" (2001), artikel "Levels of Organization in General Intelligence" (2002), "Coherent Extrapolated Volition" 2004) dan Timeless Decision Theory (2010). Publikasi ilmiah terbarunya adalah dua artikel dalam Risks of Global Catastrophe (2008) yang diedit oleh Nick Bostrom, yaitu “Artificial Intelligence as a Positive and Negative Factor of Global Risk” dan “Cognitive Bias in Assesing Global Risks”. Yudkovsky tidak belajar di universitas dan merupakan otodidak tanpa pendidikan formal di bidang AI.

Yudkowsky mengeksplorasi konstruksi AI yang mampu memahami diri sendiri, modifikasi diri dan perbaikan diri rekursif (Seed AI), serta arsitektur AI yang akan memiliki struktur motivasi yang stabil dan positif (Kecerdasan buatan yang ramah). Selain karya penelitiannya, Yudkowski dikenal karena penjelasannya tentang model kompleks dalam bahasa non-akademik yang dapat diakses oleh banyak pembaca, misalnya, lihat artikelnya An Intuitive Explanation of Bayes' Theorem.

Yudkowski, bersama dengan Robin Hanson, adalah salah satu penulis utama blog Mengatasi Bias. Pada awal 2009, ia ikut mendirikan blog Less Wrong, yang bertujuan untuk "mengembangkan rasionalitas manusia dan mengatasi bias kognitif." Setelah itu, Overcoming Bias menjadi blog pribadi Hanson. Materi yang disajikan di blog ini telah diatur dalam rantai pos yang telah menarik ribuan pembaca - lihat, misalnya, topik "teori hiburan".

Yudkowsky adalah penulis beberapa cerita fiksi ilmiah di mana ia menggambarkan beberapa topik yang berkaitan dengan ilmu kognitif dan rasionalitas.

Gambar
Gambar

Karier

  • 2000. Yudkowski mendirikan Singularity Institute (kemudian berganti nama menjadi MIRI).
  • 2006. Yudkowski bergabung dengan blog kolektif Mengatasi Bias dan mulai menulis lirik yang kemudian menjadi "Rantai".
  • 2009. Berdasarkan posting Yudkowski di Mengatasi Bias, blog kolektif terkenal LessWrong.com dibuat.
  • 2010-2015. Yudkovsky menulis GPiMRM.
  • 2013. Yudkowski memublikasikan postingan terakhir di LessWrong.com dan berhenti menulis di situs tersebut. Pada 2017, Yudkowski menerbitkan sebagian besar teks yang tersedia untuk umum di Facebook dan rbital

Eksperimen pikiran

Bayangkan sebuah superintelligence buatan yang sangat cerdas terperangkap di dunia virtual - katakanlah, hanya sebuah kotak tembakau. Anda tidak tahu apakah dia akan menjadi pendendam, ramah, atau netral. Yang Anda tahu hanyalah bahwa dia ingin keluar dari kotak tembakau dan Anda dapat berinteraksi dengannya melalui antarmuka teks. Jika AI benar-benar sangat cerdas, apakah Anda dapat berbicara dengannya selama lima jam dan tidak menyerah pada bujukan dan manipulasinya - untuk tidak membuka kotak tembakau?

Eksperimen pemikiran ini diusulkan oleh Eliezer Yudkowski, seorang peneliti di Institut Penelitian Teknik Mesin (MIRI). Ada banyak ilmuwan di MIRI yang sedang menyelidiki risiko pengembangan kecerdasan buatan; meskipun belum muncul, itu sudah mendapatkan perhatian dan memicu perdebatan.

Yudkowsky berpendapat bahwa kecerdasan super buatan dapat mengatakan apa pun untuk meyakinkan Anda: penalaran yang cermat, ancaman, penipuan, pembangunan hubungan baik, sugesti bawah sadar, dan sebagainya. Dengan kecepatan cahaya, AI membangun alur cerita, menyelidiki kelemahan, dan menentukan cara termudah untuk meyakinkan Anda. Seperti yang dikatakan oleh ahli teori ancaman eksistensial Nick Bostrom, "kita harus berasumsi bahwa superintelijen dapat mencapai apa pun yang ingin dilakukannya."

Eksperimen AI kotak tembakau menimbulkan keraguan tentang kemampuan kita untuk mengontrol apa yang mungkin kita buat. Itu juga membuat kita mengkonseptualisasikan kemungkinan yang agak aneh dari apa yang tidak kita ketahui tentang realitas kita sendiri.

Gambar
Gambar

Artikel dalam bahasa Rusia

E. Yudkovsky. Kesalahan sistematis dalam penalaran, berpotensi mempengaruhi penilaian risiko global. E. Yudkovsky. Kecerdasan buatan sebagai faktor positif dan negatif dalam risiko global. E. Yudkovsky. Mengintip ke dalam Singularitas. E. Yudkovsky. Tabel kesalahan kritis AI yang ramah. E. Yudkovsky. Tiga sekolah singularitas. E. Yudkovsky. Tingkat organisasi kecerdasan universal.

Direkomendasikan: