對於希望創建 LLM 支援的應用程式的開發人員來說,LangChain 是最有用的框架之一。它允許法學碩士模型根據可在線訪問的最新數據創建回复,並簡化整理大量數據的過程,以便法學碩士可以快速訪問這些數據。
這就是 LangChain 幫助開發人
員建立動態、資料響應的應用程式的方式。到目前為止,開源框架已經使開發人員能夠創建一些非常先進的人工智慧聊天機器人、生成問答(GQA)系統和語言摘要工具(您可以在此處找到一些範例)。
在本文中,我們將詳細介紹 LangChain
向您展示它的工作原理、開發人員可以用它建造什麼等等。
什麼是浪鏈?
LangChain 是一個開源框架,為開發人員提供使用大型語言模型 (LLM) 建立應用程式所需的工具。本質上,LangChain是一個提示編排工具,可以讓團隊更輕鬆地互動連接各種提示。
LangChain最初是一個開源項目
但隨著GitHub明星的堆積,它很快就變成了哈里森·蔡斯(Harrison Chase)領導的公司。
LLM(例如 GPT3 或 GPT4)給出 卡塔爾 WhatsApp 號碼數據 單一提示的完成,這或多或少類似於接收單一請求的完整結果。例如,你可以告訴法學碩士“創造一個雕塑”,它就會這麼做。您也可以提出更複雜的要求,例如「在湖底製作蠑螈雕塑」。法學碩士很可能會回到你想要的東西。
但如果你問這個怎麼辦:
「給我用木頭雕刻蠑螈雕塑的分步說明」?
為了避免讓使用者明確提供每個步驟並選擇執行順序,您可以使用 LLM 在每個點產生下一步,並利用先前步驟的結果作為其上下文。
LangChain 框架可以為您做到這一點。它會安排一系列提示以達到所需的結果。它為開發人員與法學碩士互動提供了一個簡單的介面。這樣,你可以說 LangChain 就像一個利用 LLM 的簡化包裝器。
什麼是LangChain表達語言?
LangChain表達式語言(LCEL)是一種聲明性語言,可以幫助工程師輕鬆連接鏈。它從一開始就是為了方便將原型投入生產而無需修改程式碼。
以下是 LCEL 的一些好處:
當您使用 LCEL 建立鏈時,您可以獲得 或服務相關的資訊都可 最佳的潛在首次令牌時間(第一個輸出出現所需的時間)。對於某些鏈,這意味著我們將令牌直接從 LLM 串流傳輸到串流輸出解析器,並且您可以與 LLM 提供者相同的速度傳回已解析的增量輸出區塊。
使用 LCEL 產生的任何鏈都可以
使用同步 API(例如,實驗時在 Jupyter 筆記本中)和非同步 API(如 LangServe 伺服器)進行呼叫。這允許在原型和生產中使用相同的程式碼,具有出色的速度和靈活性,可以處理同一伺服器上的多個並發請求。
資料科學家或從業 埃克萊拉納賈 者可以並行執行 LCEL 鏈中的步驟。
LangServe 可以快速部署使用 LCEL 產生的任何鏈。
為什麼要考慮使用浪鏈?
當只有一個提示時,法學碩士已
經相當強大了。然而,他們所做的本質上是透過預測最有可能的下一個單字來完成補全。他們在說話或做出反應之前不會像人們那樣思考和推理。至少我們願意相信這一點。
推理是利用溝通行為之前所獲得的資訊得出新結論的過程。我們不認為創建蠑螈雕塑是單一連續的操作,而是一系列影響後續步驟的較小動作。
LangChain 是一個框架,允許開
發人員創建能夠推理問題並將其分解為更小的子任務的代理程式。透過建立中間階段並將複雜的命令連結在一起,您可以使用 LangChain 將上下文和記憶體添加到完成中。
這是 LangChain 在大型語言模型中的使用範例
如果您向法學碩士詢問您的藝術品供應連鎖店中哪些分店表現最好,則會發生以下情況:
該模型將建立一個邏輯 SQL 查詢來檢索結果,並為您提供一堆虛構但完全可信的列名稱。