חברות טכנולוגיה גדולות מתחייבות לשלוט בבינה מלאכותית, אבל אפל לא מצטרפת אליהן

קונסורציום שהוקם על ידי OpenAI, גוגל, מיקרוסופט וחברת הבטיחות של בינה מלאכותית Anthropic, אומר שהחברות יקבעו שיטות עבודה מומלצות לתעשיית הבינה המלאכותית, אם כי עד כה היא תעשה זאתבלי אפל.

בדיוק כמו שאפל הייתהנעדר באופן ניכרמיוזמת בטיחות AI נפרדת שהוכרזה. על ידי הבית הלבן, אז אי הצטרפותו לקונסורציום החדש הזה מעורר שאלות. אף אחת מהחברות המעורבות לא הגיבה אם אפל בכלל הוזמנה לאחת מהיוזמות, אבל שני הפרויקטים שואפים להיות כלל-ענף.

"היום, Anthropic, Google, Microsoft ו-OpenAI מכריזות על הקמת פורום Frontier Model", הודיעה גוגל בהודעהפוסט בבלוג, "גוף חדש בתעשייה המתמקד בהבטחת פיתוח בטוח ואחראי של דגמי בינה מלאכותית גבולית".

"פורום Frontier Models ישתמש במומחיות הטכנית והתפעולית של החברות החברות בו כדי להועיל לכל האקולוגי של AI", המשיך, "כגון באמצעות קידום הערכות טכניות ואמות מידה, ופיתוח ספרייה ציבורית של פתרונות לתמיכה בשיטות העבודה המומלצות בתעשייה. ותקנים".

ההגדרה של מערכת AI חזיתית, אומר הקונסורציום, היא "מודלים של למידת מכונה בקנה מידה גדול החורגים מהיכולות הקיימות כיום בדגמים הקיימים המתקדמים ביותר, ויכולים לבצע מגוון רחב של משימות.

"לחברות היוצרות טכנולוגיית בינה מלאכותית יש אחריות להבטיח שהיא בטוחה, מאובטחת ונשארת תחת שליטה אנושית", אמר בראד סמית', סגן יו"ר ונשיא מיקרוסופט, בהכרזה... "יוזמה זו היא צעד חיוני להביא המגזר הטכנולוגי יחד בקידום בינה מלאכותית באחריות ובהתמודדות עם האתגרים כך שיועיל לאנושות כולה."

בסך הכל, הפרויקט החדש נועד לבסס שיטות עבודה מומלצות לשליטה בבינה מלאכותית. אבל מומחית הבינה המלאכותית אמילי בנדר מאוניברסיטת וושינגטון,סיפר Ars Technicaהקונסורציום החדש נועד באמת כ"ניסיון להימנע מהרגולציה; להצהיר על יכולת הוויסות העצמי".

בנדר "מאוד סקפטי" לגבי הפיקוח העצמי של חברות בינה מלאכותית, ואומר שהרגולציה צריכה לבוא מממשלות "שמייצגות את האנשים כדי להגביל את מה שהתאגידים האלה יכולים לעשות".

עוד ב-2016, גוגל ומיקרוסופט היו גם חברות מייסדות של ארגון דומה בשם The Partnership on AI. במיוחד, אפלהיה חבר- ועוד היום.