前幾天我的伙伴Pablinux 告訴他們 如何本地安裝流行的人工智慧模型。 在這篇文章中,我將列出我認為比 DeepSeek 更好的模型以及如何在我們的電腦上安裝和運行它們。
撇開任何政治上的同情或反感,中國政府的舉動堪稱孫子兵法般的外交行銷傑作。與唐納德·川普的“瓷器裡的大象”風格相反,他們宣布了一種免費提供與 ChatGPT 相同功能且消耗更少資源的模型。只有我們這些關注這個主題的人知道 長期以來,已經存在許多其他開源模型(有些來自北美公司,例如 Meta),而 DeepSeek 的表現僅在最常見的 5% 用途上與 ChatGPT 相當。
大規模語言模型
ChatGPT、DeepSeek 等被稱為大規模語言模型。基本上 它們允許用戶使用類似於與人類交流的語言與電腦進行互動。 為了實現這一目標,他們接受了大量文本和規則的訓練,使他們能夠從現有的資訊中產生新的資訊。
其主要用途是回答問題、總結文本、翻譯和重現內容。
比 DeepSeek 更好的型號以及如何在本地安裝它們
與 Pablinux 一樣,我們將使用 Ollama。 這是一個允許我們從Linux終端機安裝、卸載和使用不同開源模型的工具。 在某些情況下,瀏覽器可以用作圖形介面,但我們不會在本文中介紹這一點。
為了使 Ollama 提供適當的使用者體驗,最好配備專用 GPU.特別是在參數較多的模型中。但是,功能較弱的處理器可以在 Raspberry Pi 上使用,當我在一台只有 7 GB 且沒有專用 GPU 的計算機上測試具有 6 億個參數的模型時,計算機運行時也沒有出現任何問題。而對 13 億人來說,同樣的事情卻沒有發生。
參數是模型用來在資料之間建立關係和建構模式的規則。 參數和數據越多,模型就越強大;參數較少的人就像泰山一樣說西班牙語。
我們可以使用命令安裝 Ollama
sudo apt install curl
curl -fsSL https://ollama.com/install.sh | sh
我們可以使用以下命令安裝模型:
ollama pull nombre_del modelo
並運行它:
ollama run nombre_del_modelo
我們使用以下命令卸載它:
ollama rm nombre_del_modelo
我們可以輸入以下命令來查看已安裝的模型:
ollama list
以下是我認為最有趣的模型的一個小列表:完整的可用模型列表可以在這裡找到 這裡:
llama2-未經審查
Llama 是 Meta 創建的通用模型。 在此版本中,原始專案開發人員出於法律或政治原因引入的所有限制均被刪除。。它有兩個版本,輕量版可管理 8GB,完整版則需要 64GB。
安裝:
ollama pull llama2-uncensored
並且它運行:
ollama run llama2-uncensored
代碼gemma
CodeGemma 是一系列輕量級但功能強大的模板,可讓您執行各種程式設計任務 如何完成程式碼或從頭開始編寫程式碼。理解自然語言,能遵循指令並進行數學推理。
它有 3 種變體:
- 指導: 它將自然語言轉換成程式碼並能遵循指令:
- 代碼: 從現有程式碼的部分完成並產生程式碼。
- 2b: 更快的程式碼完成任務。
泰尼拉馬
顧名思義,它是原始 Meta 模型的較小版本。。因此它不會有那麼好的結果,但如果你想看看人工智慧模型在普通硬體上是如何運作的,那麼值得嘗試一下。它只有1100億個參數。
在本地使用模型具有隱私優勢,並且可以存取未經審查和無偏見的版本,但在某些情況下往往會變得荒謬。微軟的人工智慧拒絕為我創建臘腸犬的圖像,因為它認為「婊子」這個詞具有冒犯性。最大的缺點是硬體需求。這將是一個嘗試模型並找到一個足夠好以滿足您的需求並能在現有設備上運行的模型的問題。