עם התרחבות השימוש הפופולרי בכלי בינה מלאכותית יוצרת, השאלה אם הטקסט שמולנו נכתב על ידי אדם או על ידי כלי AI הופכת רלוונטית יותר ויותר. היכולת להכריע לגבי מקורו של הטקסט מהותית במיוחד בתחומי הההוראה והמחקר האקדמי. כלים חדשים שפותחו לאחרונה מנסים להציע פתרון מושכל לסוגיה זו. אך האם הכלים הללו עומדים במשימה? בפוסט זה אסקור בקצרה ארבע אפשרויות חינמיות ואנסה להצביע על היתרונות והחסרונות שלהן:
zerogpt, quillbot, scribbr, gptzero
zerogpt – מאפשר לבדוק טקסט של עד 15,000 תווים ותומך באנגלית, עברית ושפות נוספות. ניתן להקליד, להדביק או להעלות אליו קבצים. הכלי מציין מהו האחוז מתוך הטקסט שנכתב על ידי בינה מלאכותית ומסמן במרקר צהוב את הקטעים הרלוונטיים. את מרבית הטקסטים שהכנסתי הוא זיהה בצורה נכונה – מדובר בטקסטים מרחבי הרשת ובמאמרים אקדמיים. סיכומים ומדריכים שכתבתי בעברית זוהו דווקא כבינה מלאכותית בהיקף של 70%-90%, כך שבאנגלית עובד קצת יותר טוב, אבל בכל זאת יכול לתת אינדיקציה כלשהי.
quillbot – מאפשר הכנסה של טקסט החל מ 80 מילים ועד למקסימום של 1200 מילים, ניתן להעלות גם קבצים. תומך רק בשפה האנגלית. גם פה הכלי מזהה איזה אחוז מהטקסט נכתב על ידי בינה מלאכותית וממרקר בצהוב את החלקים הללו. מאמר אקדמי זוהה בצורה נכונה, וכך גם טקסט של בלוגרית. טקסט שיווקי יותר זוהה כשילוב של כתיבה אנושית וממוכנת. האם זה נכון? קשה לדעת.
scribbr – ניתן לבדוק עד 500 מילים, תומך גם בעברית. מציין מה הסבירות באחוזים שהטקסט נכתב על ידי בינה מלאכותית. בשונה מהכלים הקודמים, סקריבר גם נותן דוגמאות לטקסטים אופיינים למחברים שונים: מחבר אנושי, מחבר אנושי בסיוע בינה מלאכותית, Gemini, ChatGPT. טקסט קצר שכתבתי זוהה כטקסט שחובר על ידי בינה מלאכותית בסבירות של 7%, כתבה מ- Ynet קיבלה 24% סבירות לכתיבה ממוכנת, טקסט של בלוגרית 1% ומאמר אקדמי 3%. טקסטים שנכתבו על ידי כלי בינה מלאכותית ChatGPT ו Claude קיבלו אחוזים גבוהים יותר, חלקם 100% וחלקם נעו סביב ה 50%. הכלי מזהה טוב יותר טקסטים של ChatGPT וטקסטים באנגלית.
gptzero – עובד באופן דומה ל scribbr ומראה מה הסבירות, באחוזים, שטקסט נכתב על ידי בינה מלאכותית. הכלי תומך גם בעברית ומאפשר העלאה של מסמכים, ניתן להזין עד 5000 מילים לבדיקה. לקבצים שכתבתי ניתנה סבירות של 5% -17% לכתיבה על ידי בינה מלאכותית. כתבה מ- Ynet קיבלה 17%, מאמר אקדמי 1%. סיפורים שכתבתי באמצעות Claude קיבלו סיכויים על התווך שבין 18% ל 43%. טקסט בעברית שנכתב באמצעות ChatGPT קיבל 23% וטקסט דומה באנגלית זוהה כ-100% בינה מלאכותית.
האם כלים אלה יפתרו עבורנו את הסוגיות האתיות סביב שימוש גובר של סטודנטים ותלמידים בבינה מלאכותית לכתיבת עבודות ומטלות? כנראה שלא, אבל הם כן יכולים לתת אינדיקציה וכיוון לזיהוי מושכל של מקור החיבור. חשוב להדגיש שהכלים מגיעים לתוצאות טובות יותר כאשר מדובר בזיהוי טקסטים באנגלית, ומצטיינים במיוחד בזיהוי טקסטים שנכתבו על ידי ChatGPT. הסבירות לזיהוי נכון או לא נכון תלויה גם בפרומפטים וההגדרות שהכותב האנושי נותן לבינה המלאכותית בבקשה לחולל את הטקסט; ככל שיוכנס יותר מידע בשלב זה, כך התשובה שתחבר הבינה המלאכותית תהיה קשה יותר לזיהוי ככזו. עוד פרמטר שיכול להשפיע על איכות הזיהוי הוא אורך הטקסט – ככל שיש יותר מלל, כך לכלי הזיהוי יהיה יותר חומר להסתמך עליו והיכולת להגיע לתשובה מובהקת תהיה טובה יותר.
לסיכום, כדאי ואפשר להיעזר בכלים נגישים אלו בכדי לזהות את מקורם של טקסטים, אבל, בדומה לשימוש בכלי הבינה המלאכותית עצמם, גם פה צריך להיות זהירים ועירניים, ועדיין, כרגע אין תחליף להערכה האנושית.