ChatGPT וחבריו לוקחים אותנו אל ה-GIGO
נכתב ב-22 בפברואר 2023
מחוללי טקסטים מבוססים בינה מלאכותית כמו ChatGPT ממשיכים להנפיק כותרות, כשענקיות הטכנולוגיה רצות בחיפזון לשלב את ה-AI בעסקי הליבה שלהן, כדי לא להישאר מאחור. גוגל ומיקרוסופט, שתיהן מנסות עכשיו לשלב בינה מלאכותית במנועי החיפוש שלהן, במידה מוגבלת של הצלחה.
הפאשלות של גוגל החלו כבר בשלב ההשקה. החברה הציגה את Bard, שאמור להתחרות ב-ChatGPT, אבל כבר בהדגמה הרשמית הראשונה המנוע ענה בצורה שגויה על שאלה שקשורה באסטרונומיה. מיקרוסופט הצטרפה לחגיגה הסוערת עם צ'טבוט משלה, שמהר מאוד החל להציג התנהגויות מוזרות ומטרידות, ואף לתקוף מילולית את המשתמשים, עד שהחברה נאלצה להגביל את השימוש בו, כדי לתקן את התקלות. היום, מיקרוסופט התחילה לשחרר בהדרגה את המגבלות, תוך ניטור המצב.
התמונה נוצרה על ידי רויטל סלומון, באמצעות מידג'רני
מנועי הבינה המלאכותית מחוללים מהפכה, ולא רק טקסטים ותמונות. אתרי תוכן רבים הצהירו בגלוי שהתחילו להעלות תכנים שיוצרו בלעדית ב-AI, וחלקם השתמשו בעובדה זו כתירוץ לפטר כותבים אנושיים. אין ספק שמדובר בטכנולוגיה מהפכנית שעוד תחולל שינויים רבים בתחום התוכן, התכנות, הפרסום, השיווק ושוק העבודה בכלל, אבל מי שממהר להכריז על מותו של הכותב, העורך ומנועי החיפוש – מקדים את זמנו, ואולי אפילו לא מבין את הטכנולוגיה ואת המגבלות שלה.
ChatGPT וחבריו מסוגלים לייצר טקסטים קריאים והגיוניים, אבל הם חולים בהרבה מחלות ילדות – הם לא תמיד מספקים את העובדות הנכונות ולא תמיד עונים בצורה מדויקת על שאלות, ולעתים הם אפילו ממציאים ציטוטים, סימוכין ו"עובדות" שלא קיימות במציאות. הבעיה היא שכל המנועים האלה "מחרטטים בבטחון". כלומר, הם שופכים החוצה טקסטים נהירים, ברורים, שנראים מושלמים, ואם לא בודקים את התוצר, אפשר לטעות ולחשוב שאכן מדובר בטקסטים מושלמים.
קפיצת המדרגה של מחוללי הטקסטים הביאה לכך שהאינטרנט מוצפת עכשיו בטקסטים שנוצרו על ידי AI. חלקם גנריים וסתמיים, חלקם מטופשים ממש, ורובם המכריע לא תורמים כלום למשתמשים מלבד ערימות עוד יותר גדולות של זבל שצריך לנווט ביניהן. וכאן מתחילה גם תהייה פילוסופית למחצה – הרי הבינה המלאכותית לא ממציאה שום דבר בעצמה. מאמנים אותה על חומרים קיימים, שמהם היא לומדת ועל בסיסם היא מפיקה תוצרים משל עצמה. המהירות שבה ה-AI יוצר תכנים היא מרהיבה. התכנים האלה צצים בכל פינה באינטרנט. רק שעכשיו, בעצם, ה-AI מתאמן על טקסטים שהוא בעצמו יצר – טקסטים שהם לא תמיד מדויקים, נכונים או מחוברים למציאות. מה יהיו ההשלכות של התופעה הזו? מתכנתים מכירים את המונח GIGO – ראשי תיבות של Garbage In, Garbage Out. כלומר, מידע פגום (או "זבל") שמהווה קלט, הופך לפלט חסר משמעות. אם ה-AI יתאמן על טקסטים של עצמו, הוא יתחיל לפלוט קשקושים עוד יותר הזויים ממה שהוא פולט כבר עכשיו, והלופ המוזר הזה ימשיך להזין את עצמו.
הבינה המלאכותית כאן כדי להישאר. מה שעוד לא ברור זה לאן היא הולכת ולאן היא לוקחת אותנו. בינתיים, יש פה הרבה זיבולי מוח.