如何在電腦本機安裝和使用 DeepSeek-R1,無論您使用 Ubuntu 還是任何其他系統

  • DeepSeek-R1是一個具有高階推理能力的開源模型。
  • Ollama 簡化了本地 AI 模型的安裝和管理。
  • ChatBoxAI 提供了一個圖形介面來與 DeepSeek 等模型進行互動。
  • 該模型可以使用Python輕鬆整合到開發專案中。

Ubuntu 上的 DeepSeek-R1

人工智慧繼續改變我們的世界,使用高階語言模型的選擇正在突飛猛進。然而,並不是每個人都需要連接到雲端服務或依賴第三方來探索這些技術。一個有趣且易於使用的替代方案是 DeepSeek-R1,一種人工智慧模型,允許用戶在普通電腦上本地運行它。在本文中,我將解釋如何安裝 DeepSeek 並充分利用其功能。

DeepSeek-R1 是 開源人工智慧模型 它以其效率和先進的推理能力而脫穎而出。透過在本地運行,您不僅可以節省經常性成本,還可以保護您的隱私並獲得將其整合到自訂專案中的靈活性。儘管某些型號需要強大的硬件,但 DeepSeek-R1 提供了針對不同資源(從基本電腦到高級工作站)進行調整的版本。

什麼是 DeepSeek 以及為什麼在本地使用它?

DeepSeek-R1 是 專為邏輯推理等複雜任務而設計的高階語言模型,解決數學問題並產生程式碼。它的主要優點是它是開源的,這意味著您可以在自己的電腦上安裝並運行它,而不需要依賴外部伺服器。

它的一些顯著特徵包括:

  • 靈活性: 您可以根據您的需求調整模型,從輕型版本到進階配置。
  • 隱私: 所有處理均在本地完成,避免了敏感資料外洩的擔憂。這也許是最重要的一點,因為許多人關心公司可以利用我們的數據做什麼。
  • 節省: 您無需在訂閱或雲端服務上花錢,這使其成為開發人員和企業負擔得起的選擇。

安裝要求

在開始安裝之前,請確保遵守以下要求 要求:

  • 具有 Linux、macOS 或 Windows 作業系統的電腦(在後一種情況下支援 WSL2)。
  • 最少 8 GB的RAM,雖然建議至少 GB 16 以獲得最佳性能。
  • 最初訪問互聯網下載模型。
  • 終端機或命令列的基本知識。

另外, 你需要安裝一個名為 奧拉馬,它在本地管理和運行 DeepSeek 模型。

奧拉馬安裝

奧拉馬 是一個簡單的解決方案,可讓您下載並執行語言模型,例如 DeepSeek-R1。要安裝它,請按照下列步驟操作:

  1. 在 Linux 或 macOS 上,打開終端機並執行以下命令來安裝 Ollama - 軟體包 捲曲 顯然這是必要的──:
捲曲-fsSL https://ollama.com/install.sh |噓
  1. 在 Windows 系統上,請確保預先啟用 WSL2,然後在 Ubuntu 終端機中依照在 WSL 中設定的相同步驟進行操作。
  2. 透過運行驗證 Ollama 是否已正確安裝 ollama --version。如果該命令返回版本號,則您已準備好繼續前進。

DeepSeek-R1 下載

安裝並運行 Ollama (ollama serve 如果我們稍後解釋的下載失敗,請在終端中下載),現在您可以下載最適合您的需求和硬體的 DeepSeek 模型:

  • 1.5B參數: 非常適合基本計算機。該模型約佔 GB 1.1.
  • 7B參數: 推薦用於具有 圖形處理器 中高。這大約佔據 GB 4.7.
  • 70B參數: 對於設備上的複雜任務 大容量 記憶體和強大的 GPU。

若要下載標準 7B 模型,請在終端機中執行以下命令:

Olama Run Deepseek-R1

下載時間將取決於您的網路速度,並且僅在我們第一次運行聊天機器人時才需要。完成後,該模型就可以透過命令列或圖形介面使用。

透過圖形介面使用 DeepSeek

儘管您可以直接從終端與 DeepSeek 交互,但許多用戶為了方便起見更喜歡圖形介面。在這種情況下,您可以安裝 聊天盒子AI,一個免費的應用程序,可讓您利用 DeepSeek 視覺形式.

  • 下載並安裝 聊天盒子AI它的官方頁面.
  • 設定要使用的應用程式 奧拉馬 作為模範供應商:

在 ChatBoxAI 設定中,選擇“使用我自己的 API”,然後選擇您先前下載的 DeepSeek 模型。如果一切配置正確,您將能夠直接從圖形介面執行查詢和任務。

DeepSeek 整合到專案中

如果您是開發人員,您可以使用 DeepSeek 將其整合到您的專案中 API 相容於 OpenAI。這是一個簡單的例子,使用 蟒蛇:

導入openai 用戶端= openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") 回應= client.chat.completions.create(model="deepseek-r1", messages=[ { "role": "user", "content": "在Python中產生計算斐波那契的程式碼"}])

該腳本將向本機 DeepSeek 模型發送查詢,並在您的終端或應用程式中傳回結果。

DeepSeek-R1 AI 模型對於那些尋求幫助的人來說是一個絕佳的選擇 先進且經濟的解決方案。憑藉 Ollama 提供的易用性、模型的靈活性以及整合到自訂專案的能力,DeepSeek 為開發人員、學生和 AI 專家開闢了新的可能性。由於其對隱私和性能的關注,它是一個值得徹底探索的工具。


發表您的評論

您的電子郵件地址將不會被發表。 必填字段標有 *

*

*

  1. 負責數據:MiguelÁngelGatón
  2. 數據用途:控制垃圾郵件,註釋管理。
  3. 合法性:您的同意
  4. 數據通訊:除非有法律義務,否則不會將數據傳達給第三方。
  5. 數據存儲:Occentus Networks(EU)託管的數據庫
  6. 權利:您可以隨時限制,恢復和刪除您的信息。