אליעזר שלמה יודקובסקי הוא מומחה אמריקאי בתחום הבינה המלאכותית, החוקר את בעיות הייחודיות הטכנולוגית ודוגל ביצירת ידידותית AI. הוא מחברם של מספר סיפורי מדע בדיוני בהם הוא ממחיש כמה נושאים הקשורים למדע קוגניטיבי ורציונאליות.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
אליעזר יודקובסקי: ביוגרפיה
אליעזר שלמה יודקובסקי הוא אחד הרציונליסטים הפעילים ביותר באמריקה המודרנית, חוקר מחשבים ופופולריסטיזציה של הרעיון של "בינה מלאכותית ידידותית".
נולד ב- 11 בספטמבר 1979. מייסד וחוקר משותף בארגון המחקר הלא-ממשלתי מכון לחקר מודיעין מכונות, שמפרסם את ספריו. אליעזר יודקובסקי הוא מחבר הרומן הפילוסופי הארי פוטר ושיטות הרציונליזם, שפורסם בחלקים באינטרנט בין השנים 2010-2015. בתוכו, הארי גדל במשפחתו של מדען באוקספורד, ולפני שנסע להוגוורטס, הוא לומד ממנו את שיטות החשיבה הרציונאלית.
ככל הידוע, אין לה קשר עם מעגל "הריאליסטים הספקולטיביים". שמו מוזכר לעתים קרובות בקשר עם רובין הנסון, במשך כמה שנים (משנת 2006 עד 2009) הם היו שני המחברים העיקריים של הבלוג "להתגבר על הדעה הקדומה", שהיה קיים על כספי המכון לאנושות עתידית באוקספורד.
לפעמים אפשר לשמוע את שמו של יודקובסקי בקשר עם ריימונד קורצוויל. הוא נציג פילוסופי של קהילת הטכנאים-גיקים, בלתי נגיש ובלתי מובן, אם כן, לרוב הציבור ההומניטרי, אליו משתייכים כמעט כל קוראי הריאליסט הספקולטיבי. זה לא מפתיע, מכיוון שהוא לעתים קרובות פונה לשפה ההגיונית והמתמטית, למסקנות הסתברותיות וסטטיסטיות, שנחשף באמצעות נוסחאות וטבלאות.
אינטרסים מדעיים
יודקובסקי הוא מייסד וחוקר במכון Singularity for Intelligence Institute (SIAI). הוא תרם תרומה רבה להתפתחות המכון. הוא מחבר הספר "יצירת AI ידידותית" (2001), מאמרים "רמות ארגון במודיעין כללי" (2002), "רצון מוחץ מוחץ" ("רצון מוחלט מוחלט", " 2004) ותורת ההחלטות הנצחית (2010). פרסומיו המדעיים האחרונים הם שני מאמרים באוסף "סיכוני קטסטרופה עולמית" (2008) שערך ניק בסטרום, כלומר "בינה מלאכותית כגורם סיכון גלובלי חיובי ושלילי" ו"עיוות קוגניטיבי בהערכת סיכונים גלובליים ". יודקובסקי לא למד באוניברסיטאות והוא דידקט אוטומטי ללא השכלה פורמלית בתחום AI.
יודקובסקי בוחן עיצובים של AI המסוגלים להבנה עצמית, שינוי עצמי ושיפור עצמי רקורסיבי (Seed AI), וכן ארכיטקטורות AI שיהיו בעלות מבנה מוטיבציה יציב וחיובי (ידידותי מלאכותי ידידותי). בנוסף לעבודתו המחקרית, יודקובסקי ידוע בהסבריו על מודלים מורכבים בשפה לא אקדמית, הנגישה למעגל קוראים רחב, לדוגמה, ראה במאמרו "הסבר אינטואיטיבי על משפט בייס".
יודקובסקי, יחד עם רובין הנסון, היה אחד המחברים העיקריים של הבלוג התגברות על הטיה (התגברות על דעות קדומות). בתחילת 2009 הוא השתתף בארגון הבלוג Less Wrong, שמטרתו "לפתח את הרציונליות האנושית ולהתגבר על עיוותים קוגניטיביים." לאחר מכן, התגברות על הטיה הפך לבלוג האישי של הנסון. החומר שהוצג בבלוגים אלה היה מאורגן כשרשראות פוסטים שמשכו אלפי קוראים - ראו, למשל, את רשת תורת הבידור.
יודקובסקי הוא מחברם של מספר סיפורי מדע בדיוני בהם הוא ממחיש כמה נושאים הקשורים למדע קוגניטיבי ורציונאליות.
קריירה
- 2000. יודקובסקי מייסד את מכון הסינגולריות (לימים שמו של מירי).
- 2006. יודקובסקי מצטרף לבלוג הקולקטיבי של התגברות על הטיה ומתחיל לכתוב טקסטים שלימים הפכו לשרשראות.
- 2009. בהתבסס על הערכים של יודקובסקי בנושא התגברות על הטיה, הבלוג הקולקטיבי המפורסם LessWrong.com נוצר.
- 2010-2015. יודקובסקי כותב GPiMRM.
- 2013. יודקובסקי מפרסם את הפוסטים האחרונים באתר LessWrong.com ומפסיק לכתוב באתר. נכון לשנת 2017, יודקובסקי מפרסם את מרבית הטקסטים הזמינים בציבור בפייסבוק וארביטל
ניסוי מחשבה
דמיין אינטליגנציה-על מלאכותית חכמה להפליא הנעולה בעולם וירטואלי - נניח, פשוט בתוך קופסת-הנחשול. אתה לא יודע אם הוא יהיה רשע, ידידותי או ניטרלי. כל מה שאתה יודע הוא שהוא רוצה לצאת מהקופסה ושאתה יכול לתקשר איתו דרך ממשק טקסט. אם AI הוא באמת אינטליגנציה-על, האם אתה יכול לדבר איתו במשך חמש שעות ולא להיכנע לשכנוע שלו ולמניפולציה שלו - לא לפתוח את ה- snuffbox?
ניסוי מחשבה זה הוצע על ידי אליעזר יודקובסקי, חוקר במכון לחקר ההנדסה להנדסה (MIRI). ל- MIRI מדענים רבים הבוחנים את הסיכונים להתפתחות אינטליגנציה-על מלאכותית; למרות שהוא אפילו לא הופיע, הוא כבר מושך תשומת לב ומזין דיון.
יודקובסקי טוען כי אינטליגנציה-על מלאכותית יכולה לומר כל שביכולתה כדי לשכנע אתכם: הנמקה זהירה, איומים, מרמה, יחסי בנייה, הצעה תת-מודעת וכן הלאה. עם מהירות האור, ה- AI בונה עלילה, בודק חולשות וקובע כיצד הכי קל לשכנע אותך. כפי שניסח זאת האיום הקיומי, תאורטיקן ניק בסטרום, "עלינו להאמין שהאינטליגנציה העל יכולה להשיג את כל מה שהיא מציבה כמטרה שלה."
ניסוי AI של ה- snuffbox מעורר ספק ביכולת שלנו לשלוט במה שיכולנו ליצור. זה גם גורם לנו להבין את האפשרויות המוזרות למדי של מה שאנחנו לא יודעים על המציאות שלנו.