Hosting
Tên miền
Cloud
Máy chủ
EmailSSLFirewall Anti DDoSTối ưu tốc độ website

Nội dung

Hướng dẫn tạo Chatbot AI đơn giản và miễn phí với OpenClaw và Ollama (model qwen3.5:cloud)

Ngày đăng:

07/04/2026

Cập nhật lần cuối:

07/04/2026

OpenClaw kết hợp với Ollama là giải pháp giúp bạn nhanh chóng tạo chatbot AI mạnh mẽ mà không cần đầu tư hạ tầng phức tạp hay chi phí vận hành cao. Thay vì chạy model nặng trên VPS, bạn có thể tận dụng sức mạnh Cloud để xử lý AI, trong khi OpenClaw đóng vai trò trung gian điều phối và kết nối với Telegram hoặc giao diện web. Trong bài viết này, bạn sẽ được hướng dẫn từng bước để triển khai chatbot AI đơn giản, miễn phí và có thể sử dụng ngay trên VPS cá nhân.

Điều kiện tiên quyết

Trước khi bắt đầu, hãy đảm bảo bạn đã có sẵn các thành phần sau:

  • VPS: Đã cài đặt sẵn OpenClaw và có quyền truy cập qua SSH.
  • Tài khoản Telegram: Để khởi tạo Bot qua @BotFather (nếu bạn muốn dùng trên điện thoại).
  • Kết nối SSH: Sử dụng Terminal (macOS/Linux) hoặc PuTTY/MobaXterm (Windows).

Tại sao nên sử dụng Model Cloud thay vì Local?

1. Sự khác biệt giữa Cloud và Local

Việc chạy các model AI hoàn toàn cục bộ (Local) trên VPS thường gặp nhiều hạn chế như:

  • Yêu cầu tài nguyên cực cao: Cần dung lượng RAM cùng ổ cứng lớn và CPU/GPU mạnh mẽ, không phù hợp với các gói VPS phổ thông.
Cần CPU/GPU mạnh, RAM lớn
Cần CPU/GPU mạnh, RAM lớn
  • Tốc độ phản hồi chậm: Thời gian chờ đợi câu trả lời lâu, gây ảnh hưởng đến trải nghiệm người dùng.
Thời gian xử lý và trả lời câu hỏi rất lâu
Thời gian xử lý và trả lời câu hỏi rất lâu
  • Dữ liệu cũ: Các model local thường không có khả năng cập nhật thông tin thời gian thực.
Các model local không có khả năng cập nhật thông tin theo thời gian thực
Các model local không có khả năng cập nhật thông tin theo thời gian thực

Giải pháp tối ưu chính là sử dụng các model Cloud do Ollama cung cấp như qwen3.5:cloud hay kimi-k2.5:cloud.

Ưu điểm vượt trội:

  • Gọn nhẹ: Giảm tải tối đa cho CPU và RAM của VPS, giúp hệ thống chạy mượt mà.
  • Tốc độ: Phản hồi gần như tức thì, mang lại trải nghiệm trò chuyện tự nhiên.
  • Độ chính xác cao: Dữ liệu luôn được cập nhật mới nhất từ nhà cung cấp model.

2. Nguyên lý hoạt động

Hệ thống hoạt động theo mô hình gateway + cloud inference:

User ➔ Telegram/Web ➔ OpenClaw Gateway (VPS) ➔ Ollama API (Local) ➔ Ollama Cloud (Xử lý) ➔ Trả kết quả ngược lại User.

Bước 1: Truy cập SSH và chuyển quyền user

Đầu tiên, bạn hãy truy cập vào VPS qua SSH. Để đảm bảo an toàn và đúng cấu hình, bạn hãy chuyển sang user clawd (đây là user chuyên dụng chạy OpenClaw).

su - clawd
Chuyển sang người dùng clawd chuyên dụng của OpenClaw
Chuyển sang người dùng clawd chuyên dụng của OpenClaw

Bước 2: Cài đặt hoặc cập nhật Ollama

Hiện tại, Ollama sử dụng một lệnh duy nhất cho cả việc cài đặt mới và cập nhật:

curl -fsSL https://ollama.com/install.sh | sh
Cài đặt hoặc cập nhật Ollama
Cài đặt hoặc cập nhật Ollama

Sau khi cài xong, Ollama sẽ chưa có model nào. Bạn có thể kiểm tra bằng lệnh ollama list.

Kiểm tra model
Kiểm tra model

Bước 3: Tải model Ollama Cloud

Để sử dụng Ollama, bạn cần tải model về VPS. Lệnh sử dụng: ollama pull tên_model

Tùy vào nhu cầu, bạn có thể chọn một trong các model sau:

  • Qwen 3.5: ollama pull qwen3.5:397b-cloud
  • Kimi 2.5: ollama pull kimi-k2.5:cloud
  • Minimax: ollama pull minimax-m2.7:cloud

Bạn có thể tham khảo thêm các model khác tại thư viện của Ollama.

Tải model Ollama Cloud
Tải model Ollama Cloud

Bước 4: Đăng nhập Ollama Cloud

Vì đây là các model chạy trên hạ tầng Cloud, bạn bắt buộc phải xác thực tài khoản Ollama của mình. Bạn chạy lệnh sau:

ollama signin

Sao chép đường link xuất hiện trên màn hình console. Sau đó, bạn dán vào trình duyệt và thực hiện đăng nhập (hoặc đăng ký nếu chưa có tài khoản).

Sau khi trình duyệt báo thành công, VPS của bạn đã được cấp phép sử dụng Model Cloud.

Đăng nhập Ollama Cloud
Đăng nhập Ollama Cloud
Sau khi đăng nhập thành công, bạn có thể sử dụng model Cloud của Ollama trên VPS
Sau khi đăng nhập thành công, bạn có thể sử dụng model Cloud của Ollama trên VPS

Bước 5: Cấu hình Model mặc định cho OpenClaw

Tiếp theo, bạn cần chỉ định cho OpenClaw biết cần sử dụng model nào làm mặc định.

Kiểm tra model hiện tại bằng lệnh:

openclaw models status
Kiểm tra model hiện tại của OpenClaw
Kiểm tra model hiện tại của OpenClaw

Mặc định OpenClaw sử dụng model khác, để chuyển sang đúng model bạn cần sử dụng, bạn dùng dạng lệnh:

openclaw models set ollama/tên_model

Ví dụ:

  • Trường hợp sử dụng model: qwen3.5:397b-cloud, dùng lệnh: openclaw models set ollama/qwen3.5:397b-cloud

  • Trường hợp sử dụng model: kimi-k2.5:cloud, dùng lệnh: openclaw models set ollama/kimi-k2.5:cloud

  • Trường hợp sử dụng model: minimax-m2.7:cloud, dùng lệnh: openclaw models set ollama/minimax-m2.7:cloud

Thiết lập model mới
Thiết lập model mới

Bước 6: Khởi chạy và sử dụng trên trình duyệt

6.1. Khởi chạy OpenClaw

Để tương tác trực tiếp với chat AI bot ở trình duyệt, bạn cần khởi chạy OpenClaw với model đã chọn từ Ollama với lệnh: ollama launch openclaw --model qwen3.5:cloud (bạn thay model qwen3.5:cloud sang model bạn đang sử dụng).

Hệ thống sẽ hỏi để xác nhận một số rủi ro. Bạn hãy chọn Yes cho cả hai câu hỏi tương ứng bên dưới:

  • Proceed? chọn Yes.
  • I understand the risks. Continue? chọn Yes.
Chọn Yes ở các câu hỏi xác nhận
Chọn Yes ở các câu hỏi xác nhận

6.2. Tạo SSH Tunnel

Đợi khoảng 2-10 phút để hệ thống cập nhật. Khi hoàn tất, bạn sẽ thấy thông báo link truy cập dạng localhost:18789…

Tạo SSH Tunnel
Tạo SSH Tunnel

Để truy cập link localhost này từ máy tính cá nhân, bạn cần tạo SSH Tunnel. Mở một Terminal mới trên máy tính cá nhân (không phải trên VPS) và chạy lệnh sau:

ssh -N -L 18789:127.0.0.1:18789 clawd@IP_VPS_Đang_Sử_Dụng

Mẹo: Nếu bạn quên mật khẩu của user clawd, hãy chạy lệnh sudo passwd clawd trên VPS để đặt lại.

6.3. Bắt đầu trò chuyện

Bây giờ, bạn có thể mở trình duyệt và truy cập http://localhost:18789 để bắt đầu trò chuyện với AI.

Mở trình duyệt và truy cập link localhost
Mở trình duyệt và truy cập link localhost
Một giao diện chat sẽ hiện ra, sẵn sàng để bạn tương tác với AI
Một giao diện chat sẽ hiện ra, sẵn sàng để bạn tương tác với AI

Việc sử dụng SSH Tunnel chỉ phù hợp cho mục đích thử nghiệm, vì kết nối sẽ bị ngắt khi bạn đóng Terminal. Để chatbot AI hoạt động ổn định và có thể sử dụng mọi lúc, mọi nơi trên điện thoại, bạn nên tích hợp trực tiếp với Telegram nhằm biến nó thành một trợ lý AI luôn sẵn sàng phản hồi.

Bước 1: Tạo Telegram Bot

iconLưu ý

Nếu bạn đã có Telegram bot rồi thì có thể bỏ qua bước này và sử dụng Bot Token của Telegram Bot bạn đang sử dụng.

  • Mở Telegram, tìm tài khoản @BotFather và bắt đầu cuộc trò chuyện.
  • Gửi lệnh /newbot và làm theo hướng dẫn để đặt tên cho bot.
  • Lưu lại cẩn thận đoạn Bot Token mà BotFather cung cấp. Đây là mã định danh quan trọng để OpenClaw có thể điều khiển bot.

Bước 2: Cấu hình kết nối qua OpenClaw Onboard

Sử dụng trình hướng dẫn tự động của OpenClaw để kết nối với lệnh: openclaw onboard

Lần lượt thực hiện các lựa chọn sau trong giao diện dòng lệnh:

  • I understand this is personal-by-default...: Chọn Yes.
  • Setup mode: Chọn QuickStart.
  • Config handling: Chọn Update values.
  • Model/auth provider: Chọn Ollama.
  • Ollama base URL: Chọn mặc định (http://127.0.0.1:11434).
  • Ollama mode: Chọn Cloud + Local.
  • Default model: Chọn Keep current (giữ lại model bạn đã thiết lập ở bước trước).
  • Select channel (QuickStart): Chọn Telegram (Bot API).
  • Enter Telegram bot token: Dán Bot Token bạn đã lưu ở bước 1 vào đây và nhấn Enter.
  • Search provider: Chọn Brave Search (DuckDuckGo đã bị loại bỏ)
  • Brave Search API key: Nhấn Enter để bỏ trống.
  • Configure skills now?: Chọn No.
  • Enable hooks?: Chọn Skip for now.
  • How do you want to hatch your bot?: Chọn Do this later.
Cấu hình kết nối qua OpenClaw
Cấu hình kết nối qua OpenClaw
Cấu hình kết nối qua OpenClaw
Cấu hình kết nối qua OpenClaw
Cấu hình kết nối qua OpenClaw
Cấu hình kết nối qua OpenClaw
Cấu hình kết nối qua OpenClaw
Cấu hình kết nối qua OpenClaw

Bước 3: Cấp quyền (Pairing) cho Telegram Bot

  • Mở Telegram, tìm đến bot bạn vừa tạo và nhắn một tin bất kỳ.
  • Vì lý do bảo mật, bot sẽ không trả lời ngay mà gửi lại một thông báo yêu cầu cấp quyền, kèm theo một mã lệnh có dạng openclaw pairing approve telegram 12345....
  • Sao chép toàn bộ dòng lệnh đó, quay lại cửa sổ SSH trên VPS, dán vào và nhấn Enter.

Như vậy, kết nối đã hoàn tất. Từ bây giờ, bạn có thể trò chuyện với trợ lý AI của mình mọi lúc mọi nơi ngay trên Telegram mà không cần duy trì cửa sổ SSH hay Tunnel phức tạp nữa.

Chat với Telegram bot
Chat với Telegram bot
Cấp quyền cho Telegram Bot
Cấp quyền cho Telegram Bot

Qua hướng dẫn này, bạn đã nắm được cách thiết lập chatbot AI bằng OpenClaw và Ollama Cloud, từ bước cài đặt đến triển khai thực tế trên Telegram. Đây là một nền tảng rất linh hoạt để bạn tiếp tục mở rộng như tự động hóa, tích hợp API hoặc xây dựng hệ thống AI phục vụ công việc cá nhân. Hy vọng bạn sẽ tận dụng tốt giải pháp này để tạo ra một trợ lý AI hữu ích, hoạt động ổn định và đồng hành cùng bạn mỗi ngày.

VIETNIX – DỊCH VỤ HOSTING, VPS TỐC ĐỘ CAO, ỔN ĐỊNH, BẢO MẬT

  • Địa chỉ: 265 Hồng Lạc, Phường Bảy Hiền, Thành Phố Hồ Chí Minh
  • Điện thoại: 1800 1093
  • Email liên hệ: sales@vietnix.com.vn
  • Website: https://vietnix.vn/

VIETNIX

Đội ngũ tại Vietnix

Kết nối với mình qua

Vietnix thành lập vào năm 2012, là công ty chuyên nghiệp tại Việt Nam trong lĩnh vực cung cấp dịch vụ Hosting, VPS, máy chủ vật lý, dịch vụ Firewall Anti DDoS, SSL… Với 10 năm xây dựng và phát triển, ứng dụng nhiều công nghệ hiện đại, Vietnix đã giúp hàng ngàn khách hàng tin tưởng lựa chọn, mang lại sự ổn định tuyệt đối cho website của khách hàng để thúc đẩy việc kinh doanh đạt được hiệu quả và thành công.

Kết nối với mình qua

NHỮNG CÂU HỎI THƯỜNG GẶP VỀ DỊCH VỤ TẠI VIETNIX

Để có thể gửi ticket yêu cầu hỗ trợ đến các phòng ban của Vietnix, trước hết bạn cần đăng nhập vào hệ thống portal tại đường link: https://portal.vietnix.vn/.
Sau đó vào phần Hỗ trợ > Chọn Gửi yêu cầu > Lựa chọn phòng ban mà bạn muốn gửi yêu cầu > Nhập nội dung cần hỗ trợ và nhấn Gửi.

Chúng tôi sẽ tiếp nhận và phản hồi ngay khi nhận được yêu cầu từ Quý Khách Hàng. Bạn có thể xem hướng dẫn chi tiết cách gửi ticket tại đây.
Nếu bạn còn vấn đề gì thắc mắc, hãy liên hệ đến hotline 1800 1093 để được hỗ trợ giải đáp nhanh chóng.

Vietnix có riêng đội ngũ tư vấn và hỗ trợ kỹ thuật chuyên nghiệp giúp khách hàng giải quyết được các vấn đề phát sinh một cách nhanh gọn nhất, không làm ảnh hưởng đến hiệu suất công việc. Đội ngũ nhân viên của chúng tôi với kinh nghiệm và trình độ chuyên môn cao sẵn sàng hỗ trợ khách hàng 24/7, mang đến cho khách hàng trải nghiệm tốt nhất khi sử dụng dịch vụ tại Vietnix.

Đảm bảo an toàn và bảo mật thông tin của Quý khách hàng là nhiệm vụ Vietnix luôn đặt lên hàng đầu. Chúng tôi sẽ không xâm phạm vào thông tin và dữ liệu của khách hàng khi chưa được cho phép. Vietnix cam kết không chia sẻ thông tin khách hàng dưới bất kỳ hình thức nào cho bên thứ ba. Mọi hoạt động sẽ tuân thủ đúng pháp luật, điều khoản hợp đồng và Chính sách bảo mật thông tin của chúng tôi.

Vietnix có hệ thống các kênh liên lạc đa dạng giúp bạn dễ dàng kết nối được với chúng tôi. Bạn có thể liên hệ với Vietnix qua Fanpage Facebook, Livechat, Ticket, Email,… Ngoài ra, trong trường hợp cần hỗ trợ nhanh chóng, bạn có thể gọi đến hotline: 1800 1093 – 07 088 44444 để được giải quyết kịp thời.

Tại Vietnix, chúng tôi hỗ trợ việc hoàn tiền trong vòng 30 ngày kể từ khi dịch vụ của quý khách được kích hoạt trên hệ thống (không tính thời gian dùng thử dịch vụ), ngoại trừ các dịch vụ: Domain, SSL, License.

– Đối với các dịch vụ Hosting, VPS: Hoàn tiền 100% trong vòng 07 ngày kể từ ngày đăng ký dịch vụ. Sau 07 ngày hoàn lại số tiền tương ứng sau khi đã trừ đi số tiền dịch vụ đã được sử dụng theo ngày.

– Đối với các dịch vụ Server, Colocation: hoàn lại số tiền tương ứng sau khi đã trừ đi số tiền dịch vụ đã được sử dụng theo ngày.

Quý khách có thể xem nội dung chi tiết tại Chính sách hoàn tiền của Vietnix.

Xem tất cả câu hỏi