לא, Google Bard אינו מאומן בנתוני Gmail

כלי מודל השפה הגדול של גוגל בשם בארד אומר שהוא הוכשר עם Gmail - אבל גוגל הכחישה שזה המקרה.

בארד הוא AI גנרטיבי או מודל שפה גדול (LLM) שיכול לספק מידע על סמך מערך הנתונים הגדול שלו. כמו ChatGPT וכלים דומים, הוא לא ממש אינטליגנטי ולעתים קרובות ישתבש דברים, מה שמכונה "הזוי".

ציוץ של קייט קרופורד, סופרת וחוקרת ראשית ב-Microsoft Research, מראה תגובת בארד שמציעה ש-Gmail נכלל במערך הנתונים שלו. זו תהיה הפרה ברורה של פרטיות המשתמש, אם היא נכונה.

אממ, מישהו קצת מודאג מכך שבארד אומר שמערך ההדרכה שלו כולל... Gmail?

אני מניח שזה ממש לא נכון, אחרת גוגל חוצה כמה גבולות משפטיים רציניים.pic.twitter.com/0muhrFeZEA

- קייט קרופורד (@katecrawford)21 במרץ 2023

אבל, טוויטר Workspace של גוגלהחשבון הגיב, שקבע כי בארד הוא ניסוי מוקדם ויעשה טעויות - ואישר שהמודל לא הוכשר עם מידע שנאסף מג'ימייל. המוקפץ באתר בארד גם מזהיר את המשתמשים שבארד לא תמיד יקבל שאילתות נכונות.

כלי הבינה המלאכותית הגנרטיבית האלה לא כמעט חסינים בפני תקלות, ומשתמשים עם גישה מנסים לעתים קרובות לשלוף מידע שאחרת היה מוסתר. שאילתות כמו של קרופורד יכולות לפעמים לספק מידע שימושי, אבל במקרה זה, בארד טעה.

בינה מלאכותית ו-LLM הפכו לנושא פופולרי בקהילת הטכנולוגיה. מערכות אלו אמנם מרשימות, אך גם מלאות בבעיות מוקדמות.

משתמשים נקראים, אפילו על ידי גוגל עצמה, לחזור לחיפוש באינטרנט בכל פעם ש-LLM כמו בארד מספק תגובה. למרות שזה עשוי להיות מעניין לראות מה זה יגיד, לא מובטח שזה יהיה מדויק.