🧿 EyeX-AI: Mở ra thế giới tri thức mới, sự sáng tạo không giới hạn!
🧿 EyeX-AI: Mở ra thế giới tri thức mới, sự sáng tạo không giới hạn!
Mô hình trò chuyện cùng trợ lý EyeX-AI cung cấp khả năng triển khai tài liệu hoàn toàn trên cục bộ!
Kho lưu trữ và nhúng hoàn toàn chạy trong trình duyệt của bạn mà không cần thiết lập.
Mô hình LLM mặc định dựa trên cấu trúc Mistral-7B do Ollama chạy cục bộ. Bạn sẽ cần cài đặt ứng dụng máy tính để bàn Ollama và chạy các lệnh sau để cấp quyền truy cập vào mô hình chạy cục bộ:
Các bộ não xử lý mặc định được chọn với tiêu chuẩn cơ bản. Để nhận nội dung xử lý chất lượng cao hơn và tùy chỉnh cảm xúc, bạn có thể thay đổi trong chương trình của chúng tôi.
Xin chân thành cảm ơn LangChain.js đã xử lý sự phối hợp và gắn kết mọi thứ lại với nhau!
Xin chân thành cảm ơn mã nguồn mở - bạn có thể xem mã nguồn và tùy chỉnh, triển khai phiên bản của riêng bạn từ kho lưu trữ!
Hãy gửi tệp PDF cho EyeX-AI, tinh chỉnh và đặt câu hỏi cho chúng! Để đảm bảo riêng tư, hãy tắt Network và Internet của bạn.
EyeX-AI có thể phạm sai lầm, chúng tôi vẫn đang cố gắng để cải thiện.