Zoom Logo

NLP - Shared screen with speaker view
Eran Hirsch
32:53
emails
Dror Levy
32:54
mails
Moshe Berchansky
32:57
מיילים
Reut Tsarfaty
33:06
input: mail
Mor Brisker
33:09
spam/not spam
Itamar Trainin
33:15
span/not span
itai schwed
33:16
spam not spam binary
Reut Tsarfaty
33:18
output: yes/no
liat schiff
33:26
בינארי
itai schwed
33:27
chbtrh
Reut Tsarfaty
33:28
classifier: binary
Amit Nir
33:28
קלסיפיקציה בינארית
itai schwed
33:29
בינארי
Eran Hirsch
33:40
Input: reviews
Sapir Harary
33:41
input: reviews
Maxim Khubashvili
33:52
spam/not spam
Eitan Shaar
33:53
קלט: משפטים
Refael (Shaked) Greenfeld
33:54
Input - sentenceoutput- [0,1]
Sapir Harary
33:57
output: the sentiment
itai schwed
34:03
input: reviewsoutput: sentiment
adiel
34:05
review, output good\bad
Danit Yshaayahu
34:06
output: True/False/None
liat schiff
34:09
thi muse
liat schiff
34:12
אין צודק
Sapir Harary
34:19
multi class אולי?
itai schwed
34:19
multiclass
Aviv Omer
34:24
input: reviewsoutput: sentimentsclassified: multipleclass
Moshe Berchansky
34:31
input: docoutput: positive, negative
Itamar Trainin
34:39
[-1,0,1]
Dror Levy
34:39
input:output:classification:
Maxim Khubashvili
34:47
input - review
liat schiff
34:48
זה תלוי במה שאנחנו רוצים לבדוק
Danit Yshaayahu
34:54
יכול להיות בלי סנטימנט
יובל עמיר
34:59
outpu
Refael (Shaked) Greenfeld
35:16
4) QA:Input question + paragraph: output 2 indices which correspnf to an answer within the text
Refael (Shaked) Greenfeld
35:35
correspond*
Eran Hirsch
35:37
Input: some text (e.g. book paragraph)
itai schwed
35:46
input: questionoutput: answerfree text
Refael (Shaked) Greenfeld
36:03
give us a the probabilities for ech inxed to be strat and end
Yair Hanina
36:05
input: questionblack box: searching for key wordsoutput: answer
Amit Nir
36:07
הקופסה השחורה: גוגל
Sapir Harary
36:09
output: the answer (may be a sentence)
Itamar Trainin
36:14
קלט: סדרה של מילים שמייצגת שאלהפלט: סדרה של מילים שמייצגת תשובה
Moshe Berchansky
36:36
input:paragraph with info, with a question.outputs: predict the answer from the given paragraph
liat schiff
38:56
אלו בעיות שהן unsupervised?
Amit Nir
41:58
לא הבנתי כל כך מה זה אומר מדדי הערכה
Amit Nir
42:12
כי כאילו יש לנו ציינון מועמדים
liat schiff
42:16
סגור תודה:)
Amit Nir
44:03
כן תודה
Yair Hanina
45:24
גלים
Amit Nir
45:40
רווח
Moshe Berchansky
45:45
רצף מופרד רווח
noam
46:01
isn't
Amit Nir
46:02
עפ
Dror Levy
46:04
isn't
Avshalom Manevich
46:04
תל אביב
Sapir Harary
46:05
היחידה הבסיסית ביותר של משמעות
Amit Nir
46:05
ראשי תיבות
Itamar Trainin
46:06
New York
Refael (Shaked) Greenfeld
46:07
מה?
Elhanan Schwarts
46:10
אותיות מש"ה וכל"ב
Amit Nir
46:11
ע"פ
Refael (Shaked) Greenfeld
46:12
? מה
Danit Yshaayahu
46:12
ת"א
itai schwed
46:13
new York היא מילה אחת
Sapir Harary
46:15
תל אביב
Ziv Zaarur
46:16
ביטוח לאומי
Eran Hirsch
46:17
New york-based
adiel
46:18
ice cream
Itamar Trainin
46:18
isn't = is not
Dror Levy
46:21
isn't - is not
יובל עמיר
46:24
York-based
itai schwed
46:24
ה-based היא מילה נפרדת
Amit Nir
46:25
בא לי = באלי
Aviv Omer
46:31
סמיכויות
Dror Levy
46:32
York-based
Danit Yshaayahu
46:36
anymore.
Yair Hanina
46:38
לא הבנתי את השאלה
Maxim Khubashvili
47:00
אותיות בין רווחים
Amit Nir
47:34
מה זה אורתוגרפיה?
Danit Yshaayahu
47:41
הגדרנו מילה כל מה שנמצא בין שני רווחים אז השאלה הייתה מתי זה לא נכון
Yair Hanina
48:43
מה ההעדפה שלך פרופסור צרפתי מבחינת שאלותצאט או רמקול?
Aviv
49:21
מה עם מילה שהם גם שם של אדם ?
Aviv
49:26
*שהיא
itai schwed
49:28
תודה
Eran Hirsch
54:29
5
Amit Nir
54:33
3
itai schwed
54:37
כש מ ה בית
Amit Nir
54:37
כאשר מתוך הבית
David Chernin
54:39
3
Yair Hanina
54:42
3
Aviv Omer
54:43
4
noam
54:43
4
Moshe Berchansky
54:44
4
Eitan Shaar
54:47
3
Itamar Trainin
54:48
4
noam
55:31
2
Amit Nir
55:32
2
Aviv Omer
55:32
2
David Chernin
55:33
2
Yotam Firer
55:34
2
Moshe Berchansky
55:34
2
Eitan Shaar
55:36
2
Maxim Khubashvili
55:39
2
Amit Nir
55:46
2
Eran Hirsch
55:47
3
noam
55:49
3
Dror Levy
55:50
2
Aviv Omer
55:51
3
liat schiff
55:52
3
Reut Tsarfaty
55:55
אוהתותך
Ziv Zaarur
55:56
3
Eran Hirsch
55:56
אני אוהבת אותך
Dorin Keshales
55:58
3
Amit Nir
56:01
2
itai schwed
56:02
3
David Chernin
56:04
3
Moshe Berchansky
56:04
3
Reut Tsarfaty
56:06
אוהבתותך
Yair Hanina
56:06
3
noam
56:13
כדי להתגבר על דו משמעות
liat schiff
58:41
גם יותר קשה אבל גם פחות בנו אלגוריתמים עבורן
noam
59:40
verbs, adjectives, nouns
Yair Hanina
59:47
N,V,N,ADJ,N,ADJ,V,V,N,V,ADJ
Maxim Khubashvili
59:48
verb, noun, adjective
Eran Hirsch
59:54
(1) John, Mary, wikipedia, apple (2) loves, imply, swim (3) red, sweet, tall
Avshalom Manevich
59:54
John, Mary, wikipedia
Avshalom Manevich
01:00:05
Red, sweet, tall
יובל עמיר
01:00:10
John, apple, Mary, wikipedia
Avshalom Manevich
01:00:14
Swim, talk, imply
Refael (Shaked) Greenfeld
01:00:17
11) John, Mary, wikipedia, apple (2) loves, imply, swim (3) red, sweet, tall+1
Moshe Berchansky
01:00:22
noun: John, Mary, apple,wikipediaverb: loves, swim, talk, implyadj: red, tall, sweet
itai schwed
01:00:23
1. loves, swim, talk, imply
Aviv Omer
01:00:25
noun: John, Mary, wikipedia, apple
adiel
01:00:31
loves,swim,talk,imply
Aviv Omer
01:00:40
noun, verb, adj.
itai schwed
01:00:57
2. john, mary, Wikipedia, apple
noam
01:02:21
some pos can form groups that have meaning when they come together, and be impossible in other cases
עמית סופר
01:02:23
נכונות לשונית
רפאל כהן
01:02:31
זיהוי מבנה של משפט, נושא מושא נשוי
עמית סופר
01:02:48
"הבנה" של המשפט
Aviv Omer
01:03:03
פועל בעבר נחשב כ2 מילים או מילה אחת?לדוגמה went
Danit Yshaayahu
01:03:04
זיהוי סביבות דומות
Danit Yshaayahu
01:03:34
אפשר להתמודד ככה עם מחסור במידע במקום להתייחס למילה להתייחס לחלק דיבר שלה
liat schiff
01:03:46
כדי למצוא מאפיינים לדוגמא אחפש שמות תואר
Uri
01:07:52
מה לגבי אהבה למשל?
liat schiff
01:08:10
זה שם פעולה אני חושבת
Uri
01:08:20
מוזכר מחשבה זה כמו אהבה
Refael (Shaked) Greenfeld
01:08:24
גם וגם
Refael (Shaked) Greenfeld
01:08:27
תלוי הקשר
Eran Hirsch
01:08:35
חשבתי שזה בעיה להגדיר ככה שם עצם, למשל אדום
noam
01:12:50
actually, adverbs can modify everything that is not a noun, so they have "bad name"
liat schiff
01:13:19
לא דיברנו על שם פועל ושם פעולה
liat schiff
01:18:17
מילים מיותרות לרוב
noam
01:18:25
stops the previous phrase
Yair Hanina
01:18:56
בעבור אנשים בלבד או גם למכונה?
yoav.goldberg@biu.ac.il
01:19:48
IF you represent text as "bag of words", you can/should remove the "stop words". BUT, in this case, you also already lose a lot of the meaning.
noam
01:20:50
they come before verbs?
Danit Yshaayahu
01:21:18
בעברית הם יכולים להגיע גם בלי פועל
Dorin Keshales
01:29:49
שם עצם
noam
01:29:51
N, Adj, V
Eitan Shaar
01:29:54
1. שם עצם
itai schwed
01:29:54
1. שם עצם
Eran Hirsch
01:29:55
1.noun 2. adjective 3. adverb
Avshalom Manevich
01:29:56
Noun, adjective, adverb
Eitan Shaar
01:29:58
2. תואר
itai schwed
01:30:02
2. תואר
noam
01:30:04
N, Adj, Adv
David Chernin
01:30:07
N, adj, adverb
Eitan Shaar
01:30:09
3. שם תואר
Yair Hanina
01:30:10
1.noun2.adj3.adv
Refael (Shaked) Greenfeld
01:30:12
1.NN
Moshe Berchansky
01:30:16
1) noun 2) adj 3) adv
Refael (Shaked) Greenfeld
01:30:17
2.Adj
adiel
01:30:18
noun, adj,adv
Danit Yshaayahu
01:30:19
1. שם עצם2. שם תואר3. תואר הפועל
יובל עמיר
01:30:23
1. שם עצם 2. שם תואר 3. ץואר הפועל
Maxim Khubashvili
01:30:24
noun , adjective, adverb
liat schiff
01:30:44
מספר 3
liat schiff
01:30:53
לר יכל להיות גם מאייך?
liat schiff
01:31:06
לא*
Yair Hanina
01:31:08
תואר, פועל, שם עצם ופועל
Elhanan Schwarts
01:31:12
10
Yehonatan Harmatz
01:31:13
12
Danit Yshaayahu
01:31:15
9
Yair Hanina
01:31:17
9
itai schwed
01:31:23
14
Moshe Berchansky
01:31:24
10
Danit Yshaayahu
01:31:27
11
Amit Nir
01:31:29
14
David Chernin
01:31:30
12
רפאל כהן
01:31:33
11
Elhanan Schwarts
01:31:37
11
adiel
01:31:38
12
Aviv Omer
01:31:40
15
רפאל כהן
01:31:50
12
Yair Hanina
01:31:52
11
Elhanan Schwarts
01:31:57
12
Refael (Shaked) Greenfeld
01:32:02
15 tu 16
Refael (Shaked) Greenfeld
01:32:05
או
Maxim Khubashvili
01:32:14
13
yoav.goldberg@biu.ac.il
01:40:55
an alternative explanation: if you tag each word in isolation (ie, "what is the tag of the 6th word"), then it is a multi-class classification. But the slide says you need to produce a tag for every word in the sentence. Which is a different problem.
Moshe Berchansky
01:42:44
הטייה שונה
Aviv Omer
01:54:07
אנגלית בריטית, אנגלית אמריקאית
noam
01:54:12
level of precision
noam
02:01:15
when do we come back?
Danit Yshaayahu
02:13:10
yinkish - noun
Yair Hanina
02:13:20
The yinkish dripner - Noun
Yair Hanina
02:13:28
ops
Amit Nir
02:14:45
_ noun adj verb adverb _ _ noun _ _ noun
Moshe Berchansky
02:14:56
The/DT yinkish/JJ dripner/NN blorked/VB quastocally/RB into/AUX the/DT nindin/NN with/AUX the/DT pidibs/NN
Yair Hanina
02:15:06
ה הידיעה
Maxim Khubashvili
02:15:18
the yinkish - noun,blorked - verb, quastocally - adverb, into - prep, the nindin with the pididbs - noun
noam
02:15:51
look at the next word, you see a noun
noam
02:16:01
er
noam
02:16:05
profession
Yair Hanina
02:16:05
dancer
Yair Hanina
02:16:08
er
Yair Hanina
02:16:32
ed
Yair Hanina
02:17:38
the top words helped identify nouns
Yair Hanina
02:17:56
stop
Amit Nir
02:19:27
מה זה JJ?
Yair Hanina
02:19:31
what is jj
noam
02:19:51
RB for adv?
Amit Nir
02:20:12
וIN
Amit Nir
02:20:14
?
Amit Nir
02:20:18
TO,IN
yoav.goldberg@biu.ac.il
02:22:21
"TO" is the tag of "to go", "to walk" like the ל in ללכת. "IN" is the tag for prepositions, like "to the house"
noam
02:32:53
P(NN|start) = P(NN) ?
Danit Yshaayahu
02:33:11
לא
Danit Yshaayahu
02:33:28
P(NN) זה ההסתברות של NN בכל מקום במשפט
noam
02:33:52
as in P(NN|start)=P(NN)*P(start)=P(NN)
Danit Yshaayahu
02:34:45
No
Danit Yshaayahu
02:35:13
P(NN)*P(start)!=P(NN)
Amit Nir
02:35:42
זה דווקא כן נכון, ההסתברות של סטרט היא 1
noam
02:35:45
but she said P(start)=1
Danit Yshaayahu
02:36:07
סליחה הפוך
Danit Yshaayahu
02:36:33
P(NN|start)!=P(NN)*P(start)כי לא תמיד שם עצם מופיע בתחילת המשפט אז הוא כן תלוי בSTART
Uri
02:44:19
אם אפשר לחדד למה היינו צריכים את המעבר עם בייס, ולא לשערך ישירות את הסתברות מופע ה-POS למופעי המילים.
yoav.goldberg@biu.ac.il
02:46:30
Uri: try to do it, and see that the equations will be much more complex.
yoav.goldberg@biu.ac.il
02:46:49
[if you indeed follow proper probability rules]
liat schiff
02:48:25
end זה למשל נקודה?
Danit Yshaayahu
02:48:39
זה המקבילה לסטארט רק בסוף
Danit Yshaayahu
02:48:46
אחרי הנקודה
Danit Yshaayahu
02:48:59
אם היא נמצאת...
liat schiff
02:51:01
האמת שאני לא סגורה על start ו end
Ziv Zaarur
02:51:35
זה תגים שמגדירים לנו מתי התחלנו את המשפט ומתי סיימנו
Ziv Zaarur
02:52:10
לכל תג יש הסתברות שונה להיות בתחילת משפת או בסיום משפט ולכן זה רלוונטי לנו גם באיזה מקום זה נמצא
liat schiff
02:53:00
הבנתי אותך תודה רבה!
yoav.goldberg@biu.ac.il
02:53:32
עוד דרך להסתכל על END: מה ההסתברות של משפט להסתיים אחרי תג מסויים.
liat schiff
02:55:27
תודה רבה!
noam
03:00:47
If we did an early mistake we have a big problem
liat schiff
03:06:32
אבל יכול להיות שאם לא הייתי מסתכלת לוקלית אז כן יכלתי להגיע למקסימום גדול יותר נכוןן?
Aviv Omer
03:06:43
ואיפה מתחשבים במילה עצמה?
noam
03:07:04
This algorithm will run if all the words we want to tag were in the corpus. That is almost never the case. Could you say a couple of words on how we should handle that? Do we ever assign 0 to some P(wi|ti)?
Danit Yshaayahu
03:10:56
מתי צריך להגיש את התרגיל?
Amit Nir
03:11:07
עוד שבועיים
Danit Yshaayahu
03:11:16
תודה
noam
03:12:59
So rule of thumb is to never assign a probablity with 0? (or - inf for the log)
liat schiff
03:13:12
אני לא יכולה פשוט להוסיף מספר מסוים להסתברות שככה לא יהיה אפס במידה ולא קיים
liat schiff
03:13:19
או משהו כזה בסגנון?
yoav.goldberg@biu.ac.il
03:13:32
את יכולה, אבל:
liat schiff
03:13:35
להוסיף לכל ההסתברויות כמובן
noam
03:13:39
I think you can, but i don't know if that helps
yoav.goldberg@biu.ac.il
03:13:44
א. צריכה לדאוג שדברים יסתכמו ל-1 בסוף.
yoav.goldberg@biu.ac.il
03:13:56
ב. זה לא מאד אינפורמטיבי.
liat schiff
03:14:42
סגור תודה.. זכרתי שבסיווג עם נייב בייס היה שימוש במשהו בסגנון
liat schiff
03:14:52
אם זכרתי נכון
yoav.goldberg@biu.ac.il
03:14:55
למשל, מילה ״שלא ראינו״, יותר סביר שהיא תהיה noun מאשר verb (למה?), וסתם לתת לה הסתברות 0+קצת זה פחות מידע.
liat schiff
03:15:45
סגור תודה יואב
noam
03:15:53
So yoav, why not assign first tag with Noun instead of None?
noam
03:16:01
for example)
Mor Brisker
03:16:09
נשמח אם תוכלו להעלות את ההקלטה של השיעור הזה בהקדם כדי שנוכל להיעזר בה גם במהלך המטלה
Yair Hanina
03:16:35
הלכתי לביתהלכתי = verb
Yair Hanina
03:16:45
לא בהכרח noun
noam
03:17:34
I meant as an initiale tag
yoav.goldberg@biu.ac.il
03:18:40
Note that while "Noun" may be more probable than "Verb" a-priori, if the next tag is "Determiner", things change.
yoav.goldberg@biu.ac.il
03:19:45
So for example "I krop the cat": "krop" is a-priori likely to be noun, but "krop the" makes "krop" likely to be a verb.
yoav.goldberg@biu.ac.il
03:20:07
and in viterbi, this is taken into account.
yoav.goldberg@biu.ac.il
03:21:06
the idea is to combine two kinds of hints: "how likely is it for a given word to co-occur with a TAG" and "how likely is it for a given TAG to be near other TAGs".
yoav.goldberg@biu.ac.il
03:21:20
And you want both of these quantities to be as informative as possible.
yoav.goldberg@biu.ac.il
03:21:25
I hope this helps.
noam
03:21:38
It does help. thank you
Dorin Keshales
03:29:32
שאלה קטנה כל הנושא של הסיפור הגנרטיבי השימוש בe ו-q והשימוש בcounts ממש מזכיר לי את האלגוריתם של IBM Model 1 (מהקורס של רועי אהרוני בקורס תרגום מכונות סטטיסטי) או יותר נכון את סוג המערכת. זה באמת דומה רעיונית כמו שאני חושבת? כמובן שמדובר בטאסקים שונים אבל רעיון המערכת והדרך להגיע נראים דומים.
Refael (Shaked) Greenfeld
03:30:07
where is the data?
Eitan Shaar
03:30:25
בפיאצה
yoav.goldberg@biu.ac.il
03:30:40
Indeed, the IBM translation models are also generative algorithms.
yoav.goldberg@biu.ac.il
03:30:50
@dorin
Dorin Keshales
03:30:57
תודה!
Refael (Shaked) Greenfeld
03:31:27
I cant see it there. I saw the description
Refael (Shaked) Greenfeld
03:31:42
but cant find the data sets
noam
03:32:00
resources
Dorin Keshales
03:32:44
תודה רבה רעות ויואב!
liat schiff
03:32:54
רעות היה מצויין תודה רבה !