Zoom Logo

NLP - Shared screen with speaker view
Avshalom Manevich
20:03
noise
Eran Hirsch
20:04
חסרון: סרקאזם
Yair Hanina
20:12
הבנת אימוג'י היא אישית
Danit Yshaayahu
20:13
אפשר ללחוץ בטעות על הסוגר ההפוך ואז הסנטימנט משתנה
Avshalom Manevich
20:16
Sample bias
Aviv Omer
20:16
חסרון כל אחד משתמש באימוגי אחרת
Tal Levy
20:19
יתרון: דאטה מתויג מראש
Tal Levy
20:24
חסרון: סרקזם
David Chernin
20:27
לא משקף בהכרח את משמעות המשפט
Sapir Harary
20:28
יש הרבה דאטא
itai schwed
20:31
לא מדויק
Eran Hirsch
20:37
מוגבל לטוויטר
Danit Yshaayahu
20:42
יכול להיות שהאימוג'י מתייחס רק למשפט האחרון
Sapir Harary
20:46
יש דברים דו משמעיים או תלויי פרספקטיבה
Yair Hanina
20:47
מספר משמעויות שונות, עוצמת הרגש המובע בטקסט
Adiel Avigad
20:53
בתגובות בלי אמוגי לא תוכל לנחש את הסנטימנט טוב באותה מידה
Aviv Omer
20:56
יתרון יש אימוגים ספציפים לרגשות ספציפים
Sapir Harary
20:59
זה לא בינארי
itai schwed
21:08
יש טקסטים שבמהותם לא מצרפים להם אימוג'ים וזה לא מקיף גם אותם
Sapir Harary
21:50
הרבה משפטים שחוזרים על עצמם במדויק
Sapir Harary
23:08
כחלק מטרנד ציני שעלולים לייצר הטעיה
itai schwed
23:52
אתה יוצא מנקודת הנחה שקיימת קורלציה בין השניים
noam
24:02
but some labels will be very frequent :) and some very not :|||
noam
54:53
recap: we try to find series of tags such thatq(ti|ti-1)*e(wi|ti) is maximal?
Eran Hirsch
55:33
No, I think we try to find q and e given a series of tags
Danit Yshaayahu
55:57
צריך למצוא אותם כך שהם ימקסמו את המודל
Shaked Greenfeld
02:04:20
If you used to use sklearn for LDA, I would recommend checking this cool python package - very easy to use, to run a good visualization for LDA: https://github.com/bmabey/pyLDAvis