בתוך הכמות המסחררת של צווים נשיאותיים שעליהם חתם נשיא ארצות הברית דונלד טראמפ מייד עם כניסתו לתפקיד, נמצא גם צו נשיאותי חדש בנושא בינה מלאכותית. הצו של טראמפ מבטל באופן בוטה את הצו הקודם מ-2023 שנחתם על ידי הנשיא ביידן ועסק בצורך לקדם בינה מלאכותית אמינה ואחראית. טראמפ מודיע על היפוך מגמה: הדבר החשוב הוא מובילות טכנולוגית אמריקנית, כלכלה וביטחון לאומי, אבל הוא מוסיף שבכוונתו לשחרר את הבינה המלאכותית האמריקאית מ"הטיות אידיאולוגיות ואג'נדות חברתיות מהונדסות". זוהי הצהרת כוונות מעניינת במיוחד כשקוראים אותה יחד עם צו נשיאותי נוסף שפרסם טראמפ, ובו הוא מורה לבטל את כל המאמצים של הממשל הקודם לקדם אחריות וניטור תוכן רעיל ברשתות החברתיות.
אלא שדווקא הפריצה לתודעה של הצ'טבוט הסיניDeepSeek , מספקת תזכורת חדה לסכנות שבמדיניות כזאת. הצ'טבוט, שזוכה לפופולריות עצומה, מדגים כיצד בינה מלאכותית יכולה לשמש להפצה שיטתית של נרטיבים אידיאולוגיים: הוא מצנזר את עצמו בזמן אמת כשנשאל על נושאים רגישים ליחסי הציבור של סין, למשל מקדם את העמדות הרשמיות של בייג'ין בסוגיות כמו טייוואן, ומעביר באופן שגרתי מידע על משתמשיו לשרתים בסין.
המקרה של DeepSeek מזכיר את הדיון שמתנהל סביב טיקטוק בשנה האחרונה, בשילוב שבין חששות מפני העברת מידע על משתמשים אמריקנים לסין, לבין דיון רחב בהשפעה תודעתית על הציבור בארצות הברית. בשלב ראשון נראה דיווחים גוברים על השפעה תודעתית של DeepSeek במיוחד בנושאים הרגישים ליחסי ארצות הברית וסין. בהמשך יגיעו התראות מגורמי ביטחון על הסיכונים בהעברת מידע אמריקני לשרתים בסין. לבסוף, הממשל יאלץ לנקוט צעדים דרמטיים: או איסור על השימוש ב-DeepSeek או דרישה למכור את פעילותו בארה"ב לחברה אמריקאית.
זה הפרדוקס המטריד בגישה של ממשל טראמפ: בשם המאבק ב"אג'נדות חברתיות מהונדסות", טראמפ פותח את הדלת דווקא לאג'נדה המהונדסת ביותר: זו שמגיעה מבייג'ין. כשארה"ב תתעורר סוף סוף לאתגר הזה, כפי שקרה עם טיקטוק, היא עלולה לגלות שהנזק כבר נעשה – והפעם, בקנה מידה רחב יותר. בינה מלאכותית, בניגוד לרשת חברתית, היא טכנולוגיית ליבה שמשפיעה על כל תחומי החיים ולא רק על שוק הרעיונות.
הדאגה גדולה אף יותר כשמבינים שהטיות בבינה מלאכותית הרבה יותר קשות לזיהוי מאשר דיסאינפורמציה ברשתות חברתיות. אלה לא סתם פוסטים מגמתיים או סרטונים מטעים שאפשר לסמן ולהסיר; מדובר בשכבות על גבי שכבות של הטיות מתוכנתות, שמשנות בהדרגה את האופן שבו אנשים תופסים ומבינים את המציאות. אם בטיקטוק או בפייסבוק אפשר לאתר ולסמן מידע כוזב, במערכות בינה מלאכותית ההטיות עשויות להיות מוטמעות בתוך המודל עצמו ולהופיע בצורה מתוחכמת, לעיתים בלתי נראית, בדרך שבה המערכת מנתחת ומציגה מידע. חוסר היכולת של ארה"ב להתמודד עם האתגר הזה בשלביו המוקדמים, בגלל מדיניות שגויה של דה-רגולציה גורפת, עלול להתברר כטעות אסטרטגית יקרה.
אגף "קו האופק" במשרד המדע, הטכנולוגיה והחדשנות פרסם מזכר קצר ונלהב מהפוטנציאל הטכנולוגי של DeepSeek משום שהעובדה שאפשר לפתח מודלים יעילים במשאבים מוגבלים וללא שבבים ומעבדים יקרים, יכולה לסמן דרך גם עבור החדשנות הישראלית. אבל המזכר הזה מתעלם מסכנות אסטרטגיות אחרות. מה יקרה כשנגלה שDeepSeek לא מסתפק בקידום האינטרסים המיידיים של סין, אלא מציג באופן שיטתי את איראן כגורם שוחר שלום במזרח התיכון ואת ישראל כמקור הסכסוך באזור? או כשיתברר שהוא מספר את ההיסטוריה הישראלית בצורה מעוותת שעלולה לגרום נזק הסברתי ארוך טווח? ומה לגבי סוגיות גלובליות כמו הכחשת שואה, משבר האקלים או אמינות החיסונים – נושאים שבהם הטיה אלגוריתמית יכולה להשפיע על דעת הקהל העולמית בקנה מידה חסר תקדים?
בינה מלאכותית שמוטמעות בה הטיות אנטי-ישראליות עמוקות עלולה להיות הרבה יותר מסוכנת מכל קמפיין דה-לגיטימציה שראינו עד היום. כפי שראינו בשנה וחצי האחרונות, זו לא רק שאלה של חדשנות טכנולוגית או יתרון תחרותי – אלא של ביטחון לאומי.
ד"ר תהילה שוורץ אלטשולר היא חוקרת בכירה במכון הישראלי לדמוקרטיה ומרצה באוניברסיטה העברית