השבוע נחשפו שתי גישות מנוגדות לעתיד הבינה המלאכותית (AI) מצד שניים מהקולות המשפיעים ביותר בטכנולוגיה. מצד אחד, מנכ"ל OpenAI, סם אלטמן, חושף תוכניות שאפתניות ליצירת בינה כללית (AGI) שתשנה את שוק העבודה. מנגד, ויטליק בוטרין, ממייסדי את'ריום, מדבר על החשיבות של מנגנוני הגנה גלובליים למניעת תרחישים מסוכנים.
אלטמן: "אנחנו יודעים איך לבנות AGI"
סם אלטמן חשף בפוסט בבלוג כי OpenAI ראתה זינוק משמעותי בכמות המשתמשים: מ-100 מיליון ל-300 מיליון משתמשים שבועיים תוך שנתיים בלבד. לדבריו, החברה עומדת על סף יצירת AGI שתוכל "לשנות את התפוקה של חברות" ואפילו להשתלב בעבודות שונות כבר בשנת 2025.
אלטמן ציין כי החזון לא נעצר ב-AGI. החברה שואפת להגיע ל"סופר-בינה" – רמה חדשה של אינטליגנציה מלאכותית שעשויה להשפיע על האנושות באופן עמוק.
בוטרין: בלוקצ'יין כמערכת הגנה
בזמן שאלטמן מדבר על חדשנות ללא מעצורים, ויטליק בוטרין מציע גישה זהירה יותר. הוא מציע להשתמש בטכנולוגיות בלוקצ'יין כדי ליצור מנגנוני הגנה גלובליים, כולל "השהיה רכה" (Soft Pause) שתאפשר לעצור מערכות AI מתקדמות במקרה של תמרורי אזהרה.
בוטרין תיאר מערכת שבה מחשבי AI גדולים יידרשו אישור משותף משלוש קבוצות בינלאומיות כדי לפעול. המערכת תתבסס על הוכחות ידע אפס (Zero-Knowledge Proofs) ותפעל כמין "מתג ראשי" עולמי שימנע שימוש בלתי מבוקר בטכנולוגיה.
הוויכוח בין השניים משקף את הקונפליקט המרכזי בתעשיית הטכנולוגיה כיום: האם לשאוף לצמיחה מהירה בכל מחיר, או לעצור ולוודא שהטכנולוגיה בטוחה לשימוש?
בוטרין הדגיש שהגישה שלו אינה עוצרת את הקדמה אלא מכוונת אותה למקומות בטוחים יותר: "היכולת להשהות מערכות לא פוגעת בפיתוח אלא מבטחת אותו מתרחישים קטסטרופליים."
מה הלאה?
בזמן ש-OpenAI ממשיכה להאיץ את פיתוחי הבינה המלאכותית שלה, יישום הצעות כמו של בוטרין דורש שיתוף פעולה גלובלי בין ממשלות, חברות טכנולוגיה וקהילת הבלוקצ'יין.
שאלת המפתח היא האם שני הקצוות הללו יכולים להשתלב: חזון לעתיד טכנולוגי מזהיר לצד בטיחות והגנה על האנושות.