2024 年 4 月 22 日
- DLR 軟體技術研究所進行大型語言模型 (LLM) 的研究。
- 法學碩士可以總結資訊並創造新的文本,但他們並不總是能做到正確。
- 重點:數位化、人工智慧
「大型語言模型是一種經過訓練來理解和產生自然語言的機器學習模型。」這是 ChatGPT 對大型語言模型 (LLM) 是什麼問題的回答的一部分。 ChatGPT 本身也是其中之一。法學碩士使用大量數據來產生答案。由於新的人工智慧技術,他們的能力最近得到了極大的提高。法學碩士是德國航空航天中心 (DLR) 的研究主題。
「大型語言模型現在也可以感知潛意識訊息。他們就像在對話中一樣進行交互,並考慮對話過程中的信息。法學碩士能夠總結資訊、創建各種形式的新文本,甚至編寫程式碼,」德國航太中心軟體技術研究所的 Sophie Jentzsch 解釋道。這位科學家從事智慧和分散式系統領域的工作。 “但是,也存在一些問題和限制,例如,作為有效信息而提供的實際上不正確的信息並非沒有錯誤。”
法學碩士對語言有“理解”
法學碩士使用文本作為訓練材料,從而培養對語言的「理解」。這種理解的基礎是神經網路。機器學習演算法識別文本中的結構和模式,並根據訓練資料形成模型。然後,該法學碩士可以產生適當的回應。為此,訓練資料必須良好。此外,訓練資料集和問題必須匹配。否則,法學碩士可能會產生「幻覺」:「這意味著答案原則上聽起來不錯,但並不正確。這就是為什麼我們正在研究如何使這些系統變得更好。 「在航空航太領域,關鍵在於系統的可靠運作。當我們提出問題時,我們想要一個正確的答案,而不是 80% 或 90% 的正確答案。
人工智慧距離人類智慧(仍然)還有很長的路要走
DLR 軟體技術研究所也正在研究如何使用語言模型及其互動能力來存取資料。例如,對於新的研究主題,語言模型可以在短時間內篩選大量文本數據,然後以自然語言提供答案。順便說一句,「Google搜尋」語言模型並不能提供任何答案。您將接受文本集合的訓練。如果文字集不是最新的,則有關當前事件的問題的答案很可能是不正確的。
法學碩士是人工智慧的一種形式。智力、神經網路、理解、學習——所有這些術語都與人有關。 「這些類比很好地描述了系統性的行為,但它們也可能會產生誤導。法學碩士遠不及人類水準。在我們看來,人工智慧是否能夠實現這一目標目前更多的是一個哲學問題。
[照片]
人工智慧和猜謎團隊的挑戰
在「三對一-冠軍秀」節目(2024年4月20日,RTL)中,法學碩士經歷了一輪比賽的考驗。德國航太中心軟體技術研究所的 Sophie Jentzsch 和 Oliver Bensch 準備並監督了人工智慧在費率顯示中的使用。機器人提供了答案的語音輸出。這是關於誰在各個學科領域了解更多:三人猜測團隊或人工智慧,或大型語言模型(LLM)。