"עוזרי מחקר" – כלי AI לתמיכה בעולמות האקדמיה

עם התפתחותו המואצת של תחום הבינה המלאכותית, כלי AI הופכים למשאב חיוני הולך וגדל המציע לנו שלל של מידע וקיצורי דרך. מידי יום אנו שומעים על התפתחויות חדשות ומה שרלוונטי להיום לא בהכרח יישאר רלוונטי גם מחר. העולם האקדמי הוא חלק מהעידן החדש ועולות תהיות ומחשבות רבות כיצד להשתמש ב- AI במחקר ובהוראה. האם אפשר להיעזר בכלי AI  לצורך כתיבת עבודות או מחקר אקדמי? איך ניתן לשלב בין העולמות ולשמור על מקוריות וחדשנות וגם על ביקורתיות ואיכות? כיצד נכון להיעזר ב- AI בצורה שתסייע לנו וגם תפיק תוצרים העומדים בסטנדרטים המקובלים בעולמות המחקר?

אכן, השימוש בכלי בינה מלאכותית מצריך זהירות וביקורתיות, במיוחד בעולמות האקדמיה. הצ'אטים השונים עשויים "להזות" הפניות ביבליוגרפיות למאמרים וספרים שלא באמת קיימים (לא אחת בספרייה אנו פוגשים סטודנטים/יות המגיעים עם רשימה ארוכה של מאמרים, שאחרי בירור קצר אנו מבינים שהופקה על ידי אחד הצ'אטים ולא באמת מפנה למקורות שקיימים בעולם האמיתי), להסתמך בתשובתם על מקורות פופולריים מהרשת או לא לתת סימוכין כלל. דרך אחת להימנע מבעיות אלו היא להיעזר בכלים ייעודיים המותאמים ורלוונטיים לעולם האקדמי ודרישותיו הייחודיות, שיכולים לסייע לנו באיתור מאמרים (אמיתיים!), סיכום, דליית מידע רלוונטי ולייעל את תהליך העבודה שלנו. בפוסט הזה אציג שלושה כלים מרכזיים מסוג זה: Perplexity, Elicit, ו- Humata, כשכל אחד מציע יכולות שונות התומכות בתהליך המחקרי.

 

Perplexity

מנוע חיפוש מבוסס AI העונה על שאלות באמצעות חיפוש ברשת האינטרנט, התשובות המתקבלות נראות  כשילוב של google  וChatGPT. יחד עם התשובה המילולית לשאלה מתקבלת גם רשימת המקורות עליהם היא מתבססת, כך שבשונה מהצ'אטים המוכרים – כאן אנחנו מקבלים אסמכתאות לתשובות שהכלי מספק. הכלי מתיימר לספק תשובות עדכנית ומדויקות בזמן אמת ומידע אמין ושלם.

אחת הפונקציות החשובות ב- Perplexity היא המיקוד (Focus), נמצאת בתוך חלון שורת החיפוש.

ניתן לבחור את סוג המקורות אליהם הצ'ט יתייחס במתן התשובה.

יש לנו שש אפשרויות:

Web – חיפוש כללי במגוון מקורות ברשת האינטרנט, Academic – חיפוש בתוך מאמרים אקדמיים בלבד- אפשרות מהותית עבורנו, סטודנטים וחוקרים, Math – תשובות עם בסיס חישובי, Writing – אם אנחנו רוצים כתיבה יצירתית יותר של הצ'אט (בלי התבססות על מקורות ספציפיים), Video – חיפוש המבוסס על קטעי וידיאו, Social  – חיפוש המבוסס על מדיה חברתית, בעיקר דיונים ברשת החברתית Reddit.

הבחירה במיקוד המתאים צריכה להיות בהתאם לסוג השאלה אותה אני רוצים לשאול, ניתן גם להשתמש במיקודים שונים על מנת לקבל פרספקטיבה רחבה על השאלה שלנו ממקורות שונים ולבקש לותר על מקורות מסוימים שפחות מתאימים לנו.

ניסיתי לשאול את הכלי – מהם מקצועות העתיד? ולהשתמש במיקוד אקדמי.

התשובה שהתקבלה מבוססת על 8 מקורות אקדמיים המגיעים ממאגרים בגישה פתוחה כמו Semantic Scholar  ו- Pubmed. המקורות מופיעים בחלק העליון של התשובה. יש לשים לב לכך שהכלי לא מתבסס על מאגרים אקדמיים חשובים רבים (משום שהגישה אליהם מוגבלת למנויים משלמים), אבל בהחלט מתייחס למקורות מהימנים וטובים.

*חלק מהתשובה שהתקבלה

ויש גם הצעות לשאלות המשך:

במיקודים האחרים התשובות שהתקבלו היו שונות במקצת, אך הרעיונות הבסיסיים היו דומים.

עוד פונקציה מעניינת היא הכפתור Pro, המתיימר להכיר את המשתמש ולהתאים את תוצאות החיפוש לצרכיו, לשאול יותר שאלות, לשקלל יותר פרטים ולהציע תשובות מדויקות יותר.

הגרסה בתשלום מאפרת יותר חיפושי Pro יומיים (5 חיפושים בגרסה החינמית  ומעל ל- 300 חיפושים בגרסה בתשלום). אין הגבלה על חיפושים רגילים בגרסה החינמית.

ניתן לחפש גם בעברית, אך מרבית המקורות שהצ'אט מתבסס עליהם הם באנגלית – התשובות המתקבלות בעברית הן תשובות מתורגמות.

 

Elicit 

בדומה לפרפלקסיטי, זהו כלי AI המאפשר לאתר מאמרים אקדמיים באמצעות מילות מפתח. מתקבלת סקירת ספרות קצרה המבוססת על תקצירים של ארבעה מאמרים (ניתן לשנות את בחירת המאמרים או להעלות מאמרים משלנו)

בנוסף לתקציר מתקבלת  רשימת מאמרים ארוכה המאורגנת בטבלה: שם המאמר, תיאור קצר ואפשרות להוסיף עמודות נוספות – סיכום המאמר, ממצאים עיקריים, מתודולוגיה, שאלת מחקר, תאריך ועוד. ניתן גם להוסיף עמודות חדשות שלא מופיעות ברשימה, וכך ליצור פילוח מידע מותאם אישית מתוך המאמרים.

כך נראה הסיכום הראשוני על הנושא על הנושא Professions of the future:

יש אפשרות ליצור סינון ראשוני לאיתור מאמרים איכותיים ורלוונטיים: סינון לפי תאריך, סוג המחקר וגם בחירה של מאמרים מכתבי עת בעלי דירוג גבוה.

*בתמונה אפשרויות הסינון

כשיש המון מידע Elicit עוזר לנו בעיבוד ראשוני וסיכום מהיר ויעיל שממנו אנחנו יכולים להמשיך, גם פה מדובר על מאמרים בגישה פתוחה המגיעים ברובם מהאתר Semantic Scholar, כך שאין לנו פה סריקה שיטתית של כל המאמרים הקיימים ולכן חשוב גם לחפש חומרים בקטלוג הספרייה ובמאגרי המידע המקצועיים. למרות זאת, אפשרויות הסינון לתאריכים מסוימים וקבוצת איכות כן מאפשרים לנו לוודא שהמאמרים שאנו מקבלים הם איכותיים ומהימנים ולהמשיך הלאה אל עבר המחקר שלנו.

הגרסה בתשלום מאפשרת סיכום של שמונה מאמרים ביחד כל פעם (במקום ארבעה בלבד) וביצוע של יותר פעולות.

 

Humata

כלי AI נוסף המתמחה בניתוח מסמכים ומאמרים אקדמיים. ניתן להעלות אליו מאמרים ולשאול שאלות לגביהם באמצעות שיחה עם הצ'אט: אפשר לבקש ממנו לתקצר את המאמר, לציין את הדברים החשובים העולים ממנו ולהגיע למידע ספציפי. התשובות מגיעות עם מראי מקום מתוך המאמרים כאשר הטקסטים הרלוונטיים מודגשים. הכלי מאפשר לנו להבין מאמרים ארוכים ולעבוד איתם בצורה חכמה, לנתח, לסכם וליצור תוכן חדש. בשונה מהכלים האחרים Humata לא מציע חיפוש מאמרים, העבודה היא עם מאמרים שאנחנו מעלים לאתר. הגרסה החינמית מאפשרת עבודה על מספר מאמרים באורך כולל של 60 עמודים ומגבילה את מספר השאלות היומי (10 שאלות ביום). בתשלום ניתן להעלות יותר עמודים ולשאול יותר שאלות, בהתאם לסוג המנוי, יש מספר אפשרויות שונות. במנויים מתקדמים ישנו שילוב עם ChatGPT.

התכתבות סביב מאמר העוסק בספריות העתיד:

*מרקור מתוך המאמר

בסך הכול התשובות שקיבלתי עם הכלי היו מספקות, הוא התייחס לטקסט וענה מתוכו ומרקר עבורי את החלקים החשובים. בעברית התשובות היו פחות טובות ואם ניסיתי לשאול שאלה קצת יותר מורכבת הוא ענה לי שלא ניתן למצוא את התשובה בתוך הטקסט.

 

לסיכום, הצגנו שלושה כלים בעלי יכולות משמעותיות לעזרה בשלבים שונים של המחקר: איסוף מידע, עיבוד ראשוני, סיכום וסקירת ספרות. כל אחד מהכלים מתאים לשלב אחר של התהליך המחקרי: Perplexity נתן לנו תשובה לשאלה שלנו כמו בצ'אטים אחרים, אך עם בסיס אקדמי וקישורים למסמכים על פיהם התבססה התשובה, Elicit מצא עבורנו מאמרים מתאימים, תקצר עבורנו ומיין אותם בטבלה בהתאם לפרמטרים שבחרנו ו-Humata עזר לנו לסכם ולחלץ מידע מתוך המאמרים שהעלנו אליו. שלושתם כלים שימושיים ומועילים שבהחלט יכולים לסייע לחוקרים ולסטודנטים בתהליך הראשוני של איסוף והערכת חומרים, יחד עם זאת חשוב תמיד לזכור שמדובר בכלים שתפקידם לסייע לנו ולא להחליף אותנו (לפחות בינתיים)…השתמשו בכלים בצורה חכמה! קחו הכול בערבון מוגבל ותמיד תקראו, תחפשו ותבדקו היטב את המידע שהתקבל.

נקודה מהותית היא שהכלים לא מכסים את כל המאמרים האקדמיים הקיימים. משום שאין להם גישה למאגרי מידע מקצועיים מובילים הכרוכים בתשלום, כלל לא בטוח שהמאמרים שהם מציעים הם העדכניים ביותר, המשפיעים ביותר או הטובים ביותר בתחום. לכן, חשוב מאוד להשלים את החיפוש בדעת"א, במאגרים האקדמיים של הספרייה או בגוגל סקולר.

התנסיתם בכלים ויש לכם תובנות עליהם? מכירים כלים טובים יותר? כתבו לנו בתגובות!

דירוג כתבי העת האקדמיים על פי JCR – שינויים במהדורת 2024

חברת Clarivate המפרסמת את דירוגי JCR (Journal Citation Reports) הודיעה על שינויים משמעותיים בדירוג כתבי העת לשנת 2024. שינויים אלה חשובים ומשמעותיים לקהילה האקדמית  וצפויים להשפיע על האופן שבו אנו מעריכים ומשווים כתבי עת מדעיים.

את השינוי הראשון ניתן לראות כבר בדו"ח לשנת 2023 – הגדלת כמות כתבי העת הנכללים בבדיקות למעל 20,000 כתבי עת מתוך האוסף של Web of Science Core Collection (תוספת של יותר מ- 9000 כתבי עת).

השינוי המשמעותי הנוסף שיופיע בדו"ח לשנת 2024 הוא דירוג מאוחד ל- 229 הקטגוריות של JCR המופיעות כיום בארבעה אינדקסים שונים: SCIE (Science Citation Index Expanded), SSCI (Social Sciences Citation Index), AHCI (Arts & Humanities Citation Index) ו- ESCI (Emerging Sources Citation Index). תחום כמו ההיסטוריה של הפילוסופיה של המדע למשל,  הופיע עד כה בארבעה דירוגים נפרדים. החל מ-2024 נראה אותו כקטגוריה אחת מאוחדת. השינויים הללו חשובים ונועדו לשפר את המהימנות והשקיפות של המדדים ולספק תמונה מקיפה ואחראית יותר לביצועים של כתבי העת בכל תחום.

התמונה מתוך הבלוג של Clarivate

לשינויים תהיה השפעה נוספת על 25 קטגוריות ייחודיות לתחומי מדעי הרוח והאומנויות. בדיסיפלינות אלו קצב ונפח ציטוטים שונה מבמדעים מדויקים ובמדעי החברה. עובדה זו הופכת את הדירוגים המתבססים על מדד JIF (Journal Impact Factor) לפחות רלוונטיים עבורם, וזאת משום שדירוג JIF של שנה מסוימת נקבע על פי ממוצע הציטוטים למאמרים שהתפרסמו בשנתיים שקדמו לה. ההשוואה בין כתבי עת והחלוקה לרבעונים בתחומים אלה תתבסס מעתה והלאה על מדד JCI (Journal Citation Indicator), בו דירוג כתב עת של שנה מסוימת מתייחס למאמרים משלוש השנים שקדמו לה וספירת הציטוטים כוללת גם את השנה הנבדקת – היקף ציטוטים של ארבע שנים. משום שדירוג JCI מתייחס לטווח רחב יותר של שנים וציטוטים מתקבלת ממנו תמונה יותר מלאה ומדויקת בתחומים אלו.

דירוג JCI לכתב העת Art & Perception ומקומו ביחס לכתבי עת אחרים מתחום האומנות

מידע נוסף על השינויים הצפויים ניתן לקרוא בבלוג של Clarivate.

מוזמנים גם לצפות בדף הערכה מדעית (ביבליומטריקה) באתר הספרייה ובסרטון הסבר על המאגר Journal Citation Reports (JCR) בערוץ היוטיוב של הספרייה.

 

מי כתב את זה? כלים מקוונים לזיהוי טקסטים שחוברו בידי בינה מלאכותית

עם התרחבות השימוש הפופולרי בכלי בינה מלאכותית יוצרת, השאלה אם הטקסט שמולנו נכתב על ידי אדם או על ידי כלי AI הופכת רלוונטית יותר ויותר. היכולת להכריע לגבי מקורו של הטקסט מהותית במיוחד בתחומי הההוראה והמחקר האקדמי. כלים חדשים שפותחו לאחרונה מנסים להציע פתרון מושכל לסוגיה זו. אך האם הכלים הללו עומדים במשימה? בפוסט זה אסקור בקצרה ארבע אפשרויות חינמיות ואנסה להצביע על היתרונות והחסרונות שלהן:

zerogpt, quillbot, scribbr, gptzero

zerogpt – מאפשר לבדוק טקסט של עד 15,000 תווים ותומך באנגלית, עברית ושפות נוספות. ניתן להקליד, להדביק או להעלות אליו קבצים. הכלי מציין מהו האחוז מתוך הטקסט שנכתב על ידי בינה מלאכותית ומסמן במרקר צהוב את הקטעים הרלוונטיים. את מרבית הטקסטים שהכנסתי הוא זיהה בצורה נכונה – מדובר בטקסטים מרחבי הרשת ובמאמרים אקדמיים. סיכומים ומדריכים שכתבתי בעברית זוהו דווקא כבינה מלאכותית בהיקף של 70%-90%, כך שבאנגלית עובד קצת יותר טוב, אבל בכל זאת יכול לתת אינדיקציה כלשהי.

זיהוי נכון של טקסט שנכתב על ידי ChatGPT

quillbot – מאפשר הכנסה של טקסט החל מ 80 מילים ועד למקסימום של 1200 מילים, ניתן להעלות גם קבצים. תומך רק בשפה האנגלית. גם פה הכלי מזהה איזה אחוז מהטקסט נכתב על ידי בינה מלאכותית וממרקר בצהוב את החלקים הללו. מאמר אקדמי זוהה בצורה נכונה, וכך גם טקסט של בלוגרית. טקסט שיווקי יותר זוהה כשילוב של כתיבה אנושית וממוכנת. האם זה נכון? קשה לדעת.

זיהוי נכון של אותו הטקסט שנכתב על ידי ChatGPT

scribbr – ניתן לבדוק עד 500 מילים, תומך גם בעברית. מציין מה הסבירות באחוזים שהטקסט נכתב על ידי בינה מלאכותית. בשונה מהכלים הקודמים, סקריבר גם נותן דוגמאות לטקסטים אופיינים למחברים שונים: מחבר אנושי, מחבר אנושי בסיוע בינה מלאכותית, Gemini, ChatGPT. טקסט קצר שכתבתי זוהה כטקסט שחובר על ידי בינה מלאכותית בסבירות של 7%, כתבה מ- Ynet קיבלה 24% סבירות לכתיבה ממוכנת, טקסט של בלוגרית 1% ומאמר אקדמי 3%. טקסטים שנכתבו על ידי כלי בינה מלאכותית ChatGPT ו Claude קיבלו אחוזים גבוהים יותר, חלקם 100% וחלקם נעו סביב ה 50%. הכלי מזהה טוב יותר טקסטים של ChatGPT וטקסטים באנגלית.

השערות לגבי טקסט שנלקח מויקיפדיה (נכתב על ידי אדם). 15% סיכוי שהטקסט נכתב על ידי AI

gptzero – עובד באופן דומה ל scribbr ומראה מה הסבירות, באחוזים, שטקסט נכתב על ידי בינה מלאכותית. הכלי תומך גם בעברית ומאפשר העלאה של מסמכים, ניתן להזין עד 5000 מילים לבדיקה. לקבצים שכתבתי ניתנה סבירות של 5% -17% לכתיבה על ידי בינה מלאכותית. כתבה מ- Ynet קיבלה 17%, מאמר אקדמי 1%. סיפורים שכתבתי באמצעות Claude  קיבלו סיכויים על התווך שבין 18% ל 43%. טקסט בעברית שנכתב באמצעות ChatGPT  קיבל 23% וטקסט דומה באנגלית זוהה כ-100% בינה מלאכותית.

אותו הטקסט מויקיפדיה עם אחוזי זיהוי קצת פחות טובים. 23% שהטקסט נכתב על ידי AI

האם כלים אלה יפתרו עבורנו את הסוגיות האתיות סביב שימוש גובר של סטודנטים ותלמידים בבינה מלאכותית לכתיבת עבודות ומטלות? כנראה שלא, אבל הם כן יכולים לתת אינדיקציה וכיוון לזיהוי מושכל של מקור החיבור. חשוב להדגיש שהכלים מגיעים לתוצאות טובות יותר כאשר מדובר בזיהוי טקסטים באנגלית, ומצטיינים במיוחד בזיהוי טקסטים שנכתבו על ידי ChatGPT. הסבירות לזיהוי נכון או לא נכון תלויה גם בפרומפטים וההגדרות שהכותב האנושי נותן לבינה המלאכותית בבקשה לחולל את הטקסט; ככל שיוכנס יותר מידע בשלב זה, כך התשובה שתחבר הבינה המלאכותית תהיה קשה יותר לזיהוי ככזו. עוד פרמטר שיכול להשפיע על איכות הזיהוי הוא אורך הטקסט – ככל שיש יותר מלל, כך לכלי הזיהוי יהיה יותר חומר להסתמך עליו והיכולת להגיע לתשובה מובהקת תהיה טובה יותר.

לסיכום, כדאי ואפשר להיעזר בכלים נגישים אלו בכדי לזהות את מקורם של טקסטים, אבל, בדומה לשימוש בכלי הבינה המלאכותית עצמם, גם פה צריך להיות זהירים ועירניים, ועדיין, כרגע אין תחליף להערכה האנושית.

 

 

 

 

איסוף ואיתור מידע באוקיינוס הביג דאטה ללא תכנות (No-Code) – הרצאה של ד"ר גל יעבץ

הפוסט מבוסס על ההרצאה המרתקת של ד"ר גיל יעבץ מאוניברסיטת בר אילן, איסוף ואיתור מידע באוקיינוס הביג דאטה ללא תכנות (No-Code).

ההרצאה, שהתקיימה בזום ב5/7/22, היא הראשונה מתוך סדרת המיטאפים "מומנטום: מידע בתנועה" יוזמה משותפת של המחלקה למדעי מידע באוניברסיטת בר אילן עם הוועדה המתמדת של מנהלי הספריות האוניברסיטאיות.

כולנו מייצרים מידע בכל רגע נתון. כשאנחנו מחפשים ב- Google, כשאנחנו עורכים קניות בסופר, כשאנחנו מאזינים למוזיקה, מידע ונתונים על ההתנהגויות שלנו נאספים וניתן להפיק מהם תובנות משמעותיות. בהרצאה הוצגו מספר כלים מרכזיים ושימושיים שיכולים לסייע לנו, כמידענים ואנשים סקרנים, להגיע למסקנות מתוך נתונים שונים בדרך קלה ואפקטיבית.

נעבור על כלים אלו כאן בהרחבה: חיפוש שאלות, מגמות וטרנדים בהתבסס על מסדי הנתונים של Google, חיפוש דאטה ונתונים ממשלתיים מ-Dataset, ניתוח טקסטים ואימוג'ים מ-Twitter, ניתוח מוזיקה מ-Spotify, וגם – איך לייצר של רשת מאמרים אקדמיים  דרך Connected Papers.

כל הכלים הם חינמיים.

שאלות, מגמות וטרנדים דרך מסדי הנתונים של Google:

Answer the public, Trendy ו-Google Trends.

Answer the public כלי המאפשר לראות מה אנשים שואלים. הרבה מהחיפושים בגוגל הם לא רק מילה או נושא מסוים, אלא חיפושים הרבה יותר פרסונליים כמו "מהן שעות הפעילות של הספרייה?" "היכן אוכלים באוניברסיטת תל אביב?". וכך, הכלי מאפשר לחפש מילה או ביטוי בכל השפות, לסנן לפי מקום גאוגרפי ולראות מה נשאל בהקשר שלו במנוע החיפוש. למשל חיפוש המילה librarians מראה לנו מה אנשים שואלים על ספרנים.

הנתונים מוצגים באמצעות ויזואליזציה מרשימה של גלגל ענק, חלוקה לפי מילות שאלה ובהמשך לפי מילות יחס, חלוקה אלפביתית והקשרים נפוצים.

חיפוש Librarians  ב- Answer the Public

בין התוצאות אפשר למצוא תהיות פילוסופיות והתחבטויות מקצועיות כמו, לצד שאלות על סדרת טלוויזיה ושלל פנינים נוספות:

?Librarians what is it? Why librarians are important? Librarians what they do

?Librarian or farmer? Why librarians wear cardigans

אפשר לשנות את הוויזואליזציה לתצוגה טבלאית ולהוריד את המידע לקובץ CSV.

זהו כלי המהווה קו ישיר לדעת הקהל ולכן מועיל לכל העוסקים בקידום אתרים. למשל, אפשר להיעזר בו כדי לבחור כותרת אטרקטיבית לפוסט בבלוג או כדי להבין על מה כדאי לשים את הדגש בבניית אתר אינטרנט. מעניין גם לבחון דרכו הבדלים תרבותיים בין מדינה למדינה, דרך ניסוחי השאלות השונים העולים ממנו.

*יש הגבלה על מספר החיפושים החינמיים שאפשר לעשות ביום.

Trendy כלי נוסף המבוסס על מסד הנתונים של google, מאפשר לראות חיפושים פופולאריים מהיומיים האחרונים, על מה אנשים מדברים הכי הרבה בעולם או באזור מסוים. מדובר למעשה בנושאים שחלה עלייה בכמות החיפושים שלהם, דרך טובה להבין על מה מדובר בגוגל רגע נתון ואולי להחליף צפייה בחדשות.

הנתונים מוצגים באמצעות בועות כחולות, לחיצה על כל אחת מהבועות תוביל לכתבה רלוונטית לנושא שחיפשנו. אם הבועה גדולה במיוחד סימן שגם העלייה בכמות החיפושים הייתה משמעותית.

*תוצאות החיפוש ב- Trendy  מה- 19.7.2022

Google trends זהו הכלי המוכר מהבין שלושת כלי גוגל שהוזכרו בהרצאה (ואפילו הוזכר בניוזלטר הראשון שלנו). למרות שרבים מכירים אותו, לא רבים מודעים לשלל היכולות המתקדמות שלו. גם פה אפשר כמובן לחפש בשפות שונות ובאזורים שונים בעולם ובטווחי זמן מגוונים: שעה / יום / שנה / 5 שנים / זמן מותאם אישית ועוד… ולהשוות בין ערכים שונים.

 

לדוגמא: חיפוש ספריית סוראסקי בשנה האחרונה. אפשר לראות שיש עלייה בחיפושים בתקופות מסוימות כמו תחילת סמסטר ואפילו עליה מסוימת בקיץ וירידה בתקופות אחרות כמו חופשת הסמסטר.

דוגמה נוספת: עלייה בפופולאריות של המילה פיסטוק בשנה האחרונה

 

אם מסתכלים על טווח של חמש שנים זה אפילו מובהק עוד יותר…האם מדובר במגמה חשובה או טרנד חולף? בשביל זה צריך להמשיך לעקוב.

בנוסף, ניתן לערוך השוואות שונות באמצעות מפות: איפה מתעניינים בגביע העולם בכדורגל? היכן עומדת לפרוץ שפעת? את מי חיפשו במדינות ארצות הברית השונות בשבוע האחרון יותר – נתניהו או לפיד?

Page Views כלי משלים לשלושת כלי גוגל שנסקרו לעיל. הוא שייך לוויקיפדיה ונותן מידע על צפייה בערכים ספציפיים לאורך זמן, תוך אפשרות לעריכת השוואות שונות. אפשר גם להתייחס לטווח תאריכים ספציפי ולהתייחס להבדלים לפי ימים או לפי חודשים (שימו לב, כשנכנסים לאתר הוא באופן אוטומטי מראה לנו השוואה בין המונחים Cat ו- (Dog.

דרך נוספת להגיע לנתוני הצפייה היא מדפי הערכים עצמם. בוחרים ב-'מידע על הדף' תחת כלים באפשרויות המופיעות בצד ימין של הערך ולאחר מכן לוחצים על 'קישור לגרף סטטיסטיקת צפייה באתר  ‘wmflabs

 

הספרייה המרכזית ע"ש סוראסקי  גם כאן בחיפוש לפי חודשים, ניתן לראות שחודשי החיפוש המובילים במהלך השנה האחרונה היו אוקטובר ואפריל והפחות פופולריים היו ספטמבר ופברואר, בהתאם לזמני פתיחת שנת הלימודים וחופשות הסמסטר והקיץ.

 

זהו כלי פשוט מאוד לשימוש, המראה לנו עד כמה וויקיפדיה הפכה להיות כוח מוביל בכל הקשור למשאבי ידע.

מידע נוסף על טרנדים אפשר למצוא גם דרך Twitter, עם הכניסה לאתר בצד ימין נמצא את כפתור Trends for you,  דרכו נוכל לצפות בכל החיפושים המובילים באזור ברגע זה.

דאטה ונתונים

Dataset Search – כלי נוסף מבית גוגל, אך מעט שונה ממה שראינו עד עכשיו. זהו מעין מאגר מידע של נתונים המבוסס על מסדי נתונים של רשויות ממשלתיות וגורמים ציבוריים. בעזרתו ניתן להגיע למידע שיכול להיות רלוונטי לחוקרים ומדענים על משרדי ממשלה, שווקים ומדיניות.

הכלי מאפשר לחפש מידע מאוד ספציפי בעזרת שאילתות מורכבות, כמו – מה היו מותגי הקפה המובילים בספרד ב- 2020? מי שינסה למצוא את התשובה דרך מנוע החיפוש הרגיל של Google  ילך לאיבוד בתוך בליל של תוצאות לא בהכרח רלוונטיות. דרך Dataset אפשר לקבל את התשובה באמצעות חיפוש  בסיסי ופשוט.

המאגר מאפשר סינונים כמו: צפייה רק בנתונים חינמיים ובחירת סוג המסמך (תמונה, טקסט, טבלה). אפשר לראות גם מי הוא הספק של הנתונים ולהוריד קבצי Excel.

בינתיים המאגר עובד פחות טוב בעברית מכיוון שאין מספיק הנגשה של מסמכים ונתונים רשמיים בארץ. ארגונים כמו 'שקוף', 'התנועה לחופש המידע' ו'ישראל דיגיטלית' פועלים לפרסום הנתונים, לצד אינדוקס מסוים מ- Data.gov , אבל המאמצים הללו עדיין אינם מספקים.

עוד על המאגר מתוך גיקטיים ו- עולם המידע.

כלים מבוססי Twitter

Vicinitas – כלי לניתוח מידע מ-,Twitter שהיה עד לא מזמן אתר נישתי של עיתונאים. הוא קטן בהשוואה לרשתות חברתיות אחרות, אך ממשיך לצמוח ולגדול כל הזמן וניתן למצוא בו מידע ושיח שניתן להסיק מהם תובנות מעניינות. לכלי יש גרסה חינמית וגרסה בתשלום, הדרישה היחידה היא להיות מחוברים ל-Twitter. אפשר לחפש מידע על תגיות או מילות מפתח מובילות, על משתמשים או עוקבים מסוימים, למשל מי עוקב דמות ספציפית. ניתן גם לראות את כל הציטוטים בנושא מסוים (בגרסה החינמית עד 2000 ציוצים מעשרת הימים האחרונים). השימוש בכלי פשוט ואינטואיטיבי.

גם פה חיפשתי את המילה פיסטוק וקיבלתי 533 תוצאות. ניתן לייבא את הנתונים לקובץ Excel ולראות את הציוץ המלא, מי המשתמש?, מתי?, מי עשה לו ריטוויט? ואפשרויות נוספות כמו לארגן את הציטוטים לפי מספר הלייקים.

בשל עומס הנתונים, ד"ר יעבץ ממליץ להיעזר בכלי נוסף ששמו Voyant. זהו כלי לניתוח טקסט מעולם מדעי הרוח הדיגיטליים שתורגם לעברית על ידי ד"ר סיני רוסניק מאוניברסיטת חיפה, המאפשר לנתח כמויות גדולות מאוד של טקסט בצורה אוטומטית. דרכו ניתן לראות מילים נוספות החוזרות על עצמן בציוצים, לאתר ציוצים מובילים וליצור ניתוחי טקסט שונים.

Emojitracker – כלי חביב העוסק בניטור אימוג'ים בזמן אמת ב- Twitter. דרכו אפשר לראות כל אימוג'י שעושים בו שימוש ברגע נתון. ככה זה נראה :

 

*Emojitracker בזמן אמת

אם בוחרים את אחד האימוג'ים – אפשר לראות את הציוצים שנכתבים אתו כרגע, הסבר על המשמעות שלו ואת מיקומו במדרג הפופולאריות. זהו כלי קצת פחות שימושי מבחינה מידענית, אבל הוא נותן אינדיקציה למה פופולארי ברגע זה ומהו הלוך הרוחות הציבורי.

מוזיקה ורשתות

ניתוח האזנה למוסיקה (spotify) – כל פעולה שלנו משאירה סימן בעולם הנתונים, וכך גם האזנה למוסיקה של האומן או הלהקה האהובים עלינו. גם במימד הזה נוכל להיעזר בכלים שונים להפקת תובנות, כמו בכלי שמתייחס להאזנה ב-spotify ועל סמך נתונים יוצר ניתוח רשתות של קשרים ומשרטט יחסי גומלין בין אומנים ולהקות בהתאם לאנשים המאזינים להם.

לדוגמא: חיפוש של עומר אדם מראה את הקרבה שלו לאומנים אחרים כמו עדן בן-זקן, עדן חסון וסטטיק ובן-אל בהתאם להעדפות הקהל. ככל שהעיגול יותר גדול מדובר באומן שיש לו יותר מאזינים ברשת. באמצעות הוויזואלזציות הללו ניתן לזקק תובנות ומסקנות על העדפות האזנה, את מי שומעים ואת מי פחות שומעים וכדומה. ניתן להוריד את הניתוחים כקובץ JDF.

 

*ניתוח האזנה ל- עומר אדם דרך Spotify

רשתות באקדמיה

Connected Papers – ונסיים עם כלי המתאים לעולם האקדמיה. זהו פיתוח ישראלי של תלמידי מחקר המבוסס על הרעיון שכל פריט אקדמי הוא חלק מרשת: אפשר לראות את מי הוא מצטט, מי מצטט אותו ומה הקשרים בין כל הגורמים הללו. כל פריט הוא חלק ברשת של ידע אקדמי, כשאפשר גם לראות את מי כמעט ולא מצטטים והוא נשאר כעיגול מבודד. ד"ר יעבץ מלמד את הכלי יחד עם Scopus  ו- Web of science  וממליץ עליו כדרך נוספת למצוא מאמרים דומים כשנקודת המוצא היא מאמר רלוונטי בודד. את הנתונים המתקבלים ניתן להוריד כטבלה ולבצע עליהם ניתוחים סטטיסטיים.

*דוגמא לרשת הקשרים של המאמר Informational Justice: A Conceptual Framework for Social Justice in Library and Information Services  מתוך Connected Papers