אל האינסוף ומעבר לו - מדע ופילוסופיה, רשימת הפוסטים המלאה

האם GPT הוזה על כבשים אלקטרוניות?

פוסט קצר למטיבי לכת על היכולות והמגבלות של GPT ובאופן כללי מודלי שפה גדולים (LLMs).
*זהו פוסט שכתבתי כתגובה לפוסט של Mike Erlihson מקבוצת Machine & Deep learning Israel .
מסתבר שכשחסר למודלי שפה גדולים כמו GPT מידע הם ממציאים לעצמם השלמות למידע החסר וכך נוצרים מעין הזיות. מידע שהאלגוריתם המציא. מאמר חדש מראה שתמיד יווצרו הזיות כאלה בכל מודל שפה גדול. כדי להראות זאת, בין השאר, הם משתמשים במשפטי גדל. אלו הוכחות מתמטיות יפיפיות שפיתח הלוגיקן קורט גדל לפני כ-100 שנה בערך שמראות שבכל מערכת מתמטית גדולה מספיק תמיד יהיו טענות אמיתיות שלא ניתן יהיה להוכיח אם הן נכונות או אם הם שגויות מתוך המערכת (זאת אומרת, בשימוש האקסיומות של המערכת). במילים אחרות, תמיד יהיו טענות מתמטיות בתוך המערכת שבנינו שהמערכת לא תדע להגיד עליהם האם הם נכונות או לא. כל מודל שפה וכל בינה מלאכותית (AI) היא מערכת מתמטית שעושה חישובים ולכן משפט גדל חל עליה. מחברי המאמר מראים שבכל מודל שפה גדול, כמו GPT , תמיד יהיה חסר ידע ולכן המודל תמיד יהיה חייב להמציא ידע לא קיים וליצור הזיות.

העניין הוא, לדעתי, שהמצב הזה אינו שונה כל כך ממה שקורה במוח האנושי. מן הסתם, המוח שלנו כמערכת חישובית גם נתון למגבלה של משפטי גדל. יותר מזה, ניתן לומר שגם המוח שלנו מייצר הזיות כל הזמן. מהבחינה הזאת שהמוח בכל רגע נתון מנסה לחזות מה יקרה. בתחום הראייה למשל ידוע כבר שנים שמה שאנחנו חושבים שאנחנו רואים בפריפריה (לא במרכז הראייה אחר בצד), זו בעצם השלמת מידע שהמוח עושה. הבדל העיקרי כאן זה שההזיות המוחיות הללו מבוססות על מידע חושי שכל הזמן נקלט ועל למידה שתמיד ממשיכה ולכן בדרך כלל ההזיותהללו מייצגות נאמנה את הסביבה ואת מה שקורה. אצל תוכנות LLM אין כניסה של מידע חושי כלל ואין למידה שממשיכה כל הזמן ולכן אין דרך לאלגוריתם לבדוק את עצמו ולקרקע את ההזיות, כפי שעושה המוח. זה כנראה צריך להיות הצעד הבא בפיתוח של AI.
בנוסף המוח גם יודע להעריך מה הסיכוי שהחיזוי שלו נכון או לא. שוב, זו יכולת שכרגע עדיין אין ל LLM ומאד חשוב להוסיף אותה.

כתיבת תגובה