🧿 EyeX-AI: Mở ra thế giới tri thức mới, sự sáng tạo không giới hạn!

  • Mô hình trò chuyện cùng trợ lý EyeX-AI cung cấp khả năng triển khai tài liệu hoàn toàn trên cục bộ!
  • Mô hình LLM mặc định dựa trên cấu trúc Mistral-7B do Ollama chạy cục bộ. Bạn sẽ cần cài đặt ứng dụng máy tính để bàn Ollama và chạy các lệnh sau để cấp quyền truy cập vào mô hình chạy cục bộ:
    $ OLLAMA_ORIGINS=https://eyex-ai.vercel.app OLLAMA_HOST=127.0.0.1:11434 ollama serve

    Sau đó, tại một terminal thứ hai:
    $ OLLAMA_HOST=127.0.0.1:11434 ollama pull mistral
  • Các bộ não xử lý mặc định được chọn với tiêu chuẩn cơ bản. Để nhận nội dung xử lý chất lượng cao hơn và tùy chỉnh cảm xúc, bạn có thể thay đổi trong chương trình của chúng tôi.
  • Xin chân thành cảm ơn mã nguồn mở - bạn có thể xem mã nguồn và tùy chỉnh, triển khai phiên bản của riêng bạn từ kho lưu trữ!
  • Hãy gửi tệp PDF cho EyeX-AI, tinh chỉnh và đặt câu hỏi cho chúng! Để đảm bảo riêng tư, hãy tắt Network và Internet của bạn.
  • EyeX-AI có thể phạm sai lầm, chúng tôi vẫn đang cố gắng để cải thiện.
  • NaVin AIF ©2021-2024