כלי מודל השפה הגדול של גוגל בשם בארד אומר שהוא הוכשר עם Gmail - אבל גוגל הכחישה שזה המקרה.
בארד הוא AI גנרטיבי או מודל שפה גדול (LLM) שיכול לספק מידע על סמך מערך הנתונים הגדול שלו. כמו ChatGPT וכלים דומים, הוא לא ממש אינטליגנטי ולעתים קרובות ישתבש דברים, מה שמכונה "הזוי".
ציוץ של קייט קרופורד, סופרת וחוקרת ראשית ב-Microsoft Research, מראה תגובת בארד שמציעה ש-Gmail נכלל במערך הנתונים שלו. זו תהיה הפרה ברורה של פרטיות המשתמש, אם היא נכונה.
- קייט קרופורד (@katecrawford)21 במרץ 2023אממ, מישהו קצת מודאג מכך שבארד אומר שמערך ההדרכה שלו כולל... Gmail?
אני מניח שזה ממש לא נכון, אחרת גוגל חוצה כמה גבולות משפטיים רציניים.pic.twitter.com/0muhrFeZEA
אבל, טוויטר Workspace של גוגלהחשבון הגיב, שקבע כי בארד הוא ניסוי מוקדם ויעשה טעויות - ואישר שהמודל לא הוכשר עם מידע שנאסף מג'ימייל. המוקפץ באתר בארד גם מזהיר את המשתמשים שבארד לא תמיד יקבל שאילתות נכונות.
כלי הבינה המלאכותית הגנרטיבית האלה לא כמעט חסינים בפני תקלות, ומשתמשים עם גישה מנסים לעתים קרובות לשלוף מידע שאחרת היה מוסתר. שאילתות כמו של קרופורד יכולות לפעמים לספק מידע שימושי, אבל במקרה זה, בארד טעה.
בינה מלאכותית ו-LLM הפכו לנושא פופולרי בקהילת הטכנולוגיה. מערכות אלו אמנם מרשימות, אך גם מלאות בבעיות מוקדמות.
משתמשים נקראים, אפילו על ידי גוגל עצמה, לחזור לחיפוש באינטרנט בכל פעם ש-LLM כמו בארד מספק תגובה. למרות שזה עשוי להיות מעניין לראות מה זה יגיד, לא מובטח שזה יהיה מדויק.