第238章 澆灌(第1/4頁)
章節報錯
星期二的清晨,陽光透過斑駁的樹葉,灑在教室的課桌上,形成一片片光影。雲清、許文馨、於芳和凌靜四人結伴走進教室,她們輕聲交談著,臉上帶著晨起的朝氣。找到座位後,四人依次坐下,雲清把書包放在桌上,開始有條不紊地整理著課本和筆記。
就在這時,教室門口傳來一陣輕微的腳步聲,眾人抬頭望去,只見祁陽揹著書包走進了教室。祁陽身形挺拔,穿著一件簡單的白色t恤和藍色牛仔褲,整個人顯得陽光乾淨。他平日裡總是習慣坐在教室後座,可今天卻徑直朝著雲清的方向走來。
祁陽走到雲清的課桌旁,臉上帶著溫和的笑意,說道:“上次我給你補課,這次你得給我補課了,下課把你筆記給我看。”他的聲音不大,卻清晰地傳入每個人的耳中。
雲清微微一怔,隨即抬起頭,對上祁陽那雙明亮的眼睛,毫不猶豫地點點頭,“可以,你坐我旁邊吧。”說著,她伸手把旁邊課桌上的雜物往自己這邊挪了挪,給祁陽騰出位置。
許文馨坐在雲清的前面,此時她好奇地轉過頭,眼神在祁陽和雲清之間來回打量,嘴角微微上揚,露出一抹意味深長的笑容。於芳和凌靜也對視了一眼。
祁陽倒是沒有在意周圍人的目光,他大大方方地把書包放在桌上,坐了下來。坐定後,他微微側身,看向雲清,輕聲說道:“謝謝。”那笑容裡,帶著幾分親近,彷彿他們之間有著旁人所不知的默契。雲清回以一個淡淡的微笑,沒有說話,繼續整理著自己的東西。
上課鈴很快響起,老師走進教室,開始了今天的授課。雲清全神貫注地聽著課,手中的筆不時在筆記本上記錄著重點。祁陽也一改往日的慵懶,坐得筆直,眼睛緊緊盯著黑板,偶爾會偏頭看向雲清的筆記,眼神裡透著專注與認真。而坐在周圍的許文馨、於芳和凌靜,心思卻時不時地飄到這兩人身上。
“同學們,經過之前對自然語言處理基本概念和簡單工具的瞭解,今天我們要深入探討自然語言處理中的詞向量表示,這是讓計算機理解人類語言的關鍵一步。”
王教授拿起一支粉筆,轉身在黑板上寫下“詞向量”三個大字。“大家想想,我們日常使用的語言,像‘蘋果’‘快樂’這些詞彙,對於人類來說,它們有著明確的含義,我們可以輕易理解並運用。但計算機是如何理解這些詞彙的呢?這就需要將詞彙轉化為計算機能夠處理的數字形式,也就是詞向量。” 為了讓同學們有更直觀的感受,王教授舉了一個例子:“假設我們有一個簡單的句子‘我喜歡蘋果’,在計算機的世界裡,它無法直接理解‘喜歡’和‘蘋果’的意義。但如果我們把每個詞都用一組數字來表示,情況就不一樣了。”
接著,王教授詳細講解了詞向量的生成方式,比如基於統計的方法。“透過統計大量文字中詞彙的共現關係,我們可以構建一個詞向量空間。在這個空間裡,語義相近的詞,它們的向量在空間中的位置也會比較接近。” 她一邊說,一邊在黑板上畫了一個簡單的二維向量空間示意圖,上面標註了幾個常見詞彙的大致位置。“比如‘香蕉’和‘蘋果’,它們都屬於水果類,在這個向量空間裡,它們的向量就會靠得很近;而‘蘋果’和‘汽車’,由於語義相差較大,它們的向量位置就會相距很遠。”
隨後,王教授又介紹了更為先進的神經網路模型生成詞向量的方法,如word2Vec。“word2Vec模型有兩種主要的訓練方式,cbow(continuous bag - of - words)和Skip - Gram。cbow是透過上下文詞彙來預測目標詞彙,而Skip - Gram則相反,是透過目標詞彙來預測上下文詞彙。” 她在黑板上畫出了cbow和Skip - Gram的模型結構示意圖,仔細地講解每個