חברות בינה מלאכותית מתחייבות להתחייבויות בטיחות בבית הלבן, אבל היעדרותה של אפל מעלה גבות

הבית הלבן התכנס עם ראשי שבע חברות כדי להניע התחייבויות וולונטריות לפיתוח AI בטוח ושקוף, אך אפל לא הייתה בין הנוכחים, ולא ברור מדוע.

למינהל ישהוכרז לאחרונהשהיא הבטיחה התחייבויות וולונטריות משבע חברות בינה מלאכותית (AI) מובילות לניהול הסיכונים הנשקפים מ-AI. יוזמה זו מדגישה עקרונות בטיחות, אבטחה ואמון בפיתוח טכנולוגיות AI.

החברות שהתחייבו בהתחייבותן כוללות את אמזון, אנתרופיק, גוגל, Inflection, Meta, Microsoft ו-OpenAI. מעניין, למרות זה של אפללעבוד בAI ולמידת מכונה, החברה נעדרת מהשיחות.

היעדרה של אפל מיוזמה זו מעלה שאלות לגבי עמדת החברה לגבי בטיחות בינה מלאכותית ומחויבותה לניהול הסיכונים הכרוכים בטכנולוגיות בינה מלאכותית.

מחויבויות ויוזמות של AI

אחת ההתחייבויות העיקריות של חברות אלה היא להבטיח שמוצרי בינה מלאכותית יעברו בדיקות אבטחה פנימיות וחיצוניות קפדניות לפני שהם ישוחררו לציבור. מטרת הבדיקה היא להגן מפני סיכוני AI משמעותיים כמו אבטחה ביולוגית, אבטחת סייבר והשפעות חברתיות רחבות יותר.

יתר על כן, חברות אלו לקחו את האחריות לשתף מידע חיוני על ניהול סיכוני AI. שיתוף המידע הזה לא יהיה מוגבל לתעשייה אלא ירחיב לממשלות, חברה אזרחית ואקדמיה.

המטרה היא לבסס שיטות עבודה מומלצות לבטיחות, לספק מידע על ניסיונות לעקוף אמצעי הגנה ולטפח שיתוף פעולה טכני.

מבחינת אבטחה, החברות הללו משקיעות רבות באמצעי אבטחת סייבר. מוקד משמעותי הוא הגנה על משקלי דגמי בינה מלאכותית קניינית ולא פורסמה, שהם מרכיבים חיוניים של מערכת בינה מלאכותית.

החברות הסכימו כי יש לשחרר משקלי מודל אלה רק כאשר הם מתכוונים ולאחר בחינת סיכוני אבטחה פוטנציאליים. בנוסף, הם מקלים על גילוי ודיווח של צד שלישי על נקודות תורפה במערכות ה-AI שלהם, ומבטיחים שכל בעיה מתמשכת מזוהה ומתוקנת באופן מיידי.

הנשיא ביידן נפגש עם חברות בינה מלאכותית על תקני בטיחות והתחייבויות. מקור: קני הולסטון/ניו יורק טיימס

כדי לזכות באמון הציבור, חברות אלו מפתחות מנגנונים טכניים חזקים כדי להבטיח שמשתמשים יכולים לזהות תוכן שנוצר בינה מלאכותית, כגון באמצעות מערכות סימון מים. גישה זו מאפשרת ליצירתיות עם AI לשגשג תוך מזעור הסיכונים של הונאה והונאה.

יתרה מכך, חברות אלו התחייבו לדווח בפומבי על מערכות הבינה המלאכותית שלהן, לכסות סיכונים ביטחוניים וחברתיים כדי לטפל בתחומים כמו השפעות הבינה המלאכותית על הוגנות והטיה.

המחקר הוא גם מוקד משמעותי. החברות נותנות עדיפות למחקר על הסיכונים החברתיים שמערכות בינה מלאכותית יכולות להוות, הכולל מאמצים למנוע הטיה מזיקה ואפליה ולהגן על פרטיות המשתמש.

הם גם מחויבים למנף בינה מלאכותית כדי להתמודד עם כמה מהאתגרים הדחופים ביותר של החברה, החל ממניעת סרטן ועד הפחתת שינויי אקלים.

הממשלה גם מפתחת צו ביצוע ורודפת אחר חקיקה דו-מפלגתית לקידום חדשנות בינה מלאכותית אחראית. הם התייעצו עם מדינות רבות, כולל אוסטרליה, ברזיל, קנדה, צרפת, גרמניה, הודו, יפן ובריטניה, כדי להקים מסגרת בינלאומית חזקה לפיתוח ושימוש בבינה מלאכותית.