LLM Answer Engine 是一款前沿项目,旨在利用现代AI和搜索技术的力量,为用户查询提供丰富且具备上下文感知的响应。基于Next.js和Tailwind CSS构建,它集成了Groq、Mistral AI的Mixtral、Langchain.JS、Brave Search以及Serper API等多个接口与框架,不仅能回答问题,还能提供信息来源、图片、视频及后续追问建议。
核心功能
- 多源数据获取:整合Brave Search与Serper API,抓取相关内容、图片和视频
- AI智能处理:采用Groq和Mixtral高效理解并处理用户查询
- 增强用户体验:支持暗黑模式、动态UI组件,并可通过Upstash Redis实现限速功能
- 灵活配置:兼容多种模型与嵌入方式,支持通过Ollama进行本地推理
技术栈
- 前端:Next.js、Tailwind CSS、Vercel AI SDK
- 后端:Langchain.JS、Cheerio(HTML解析)、可选Ollama本地推理
- 接口:OpenAI、Groq、Brave Search、Serper API
快速上手
克隆代码库后,添加API密钥即可通过Docker或npm启动服务。项目具备高度可配置性,用户可通过修改app/config.tsx
文件调整文本分块大小、相似结果数量等参数。
未来规划
计划新增文档上传实现RAG功能、模型选择的UI设置界面,并优化Ollama对追问场景的支持。
该项目特别适合对自然语言处理、搜索技术及AI应用开发感兴趣的开发者。项目遵循MIT开源协议,欢迎贡献代码。