type
status
title
summary
slug
Created
Mar 17, 2024 07:07 AM
category
tags
Date
icon
password
一、LLM-Price
这是一个非常小巧的工具,同时也是一个非常实用的工具,
LLM-Price
是一个聚合并比较各种大型语言模型(LLMs)定价信息的网站,作为用户,可以很方便地在这个网站对大模型API进行”比价“
据作者描述,整个网站完全由
Claude Sonnet
进行设计、开发,并持续更新的,他先是通过定时脚本,自动获取各大供应商的 Pricing 页面,然后由 Claude Sonnet 提取数据后更新,后续只需要不断添加 Pricing 页面的地址即可,是一个完全由 LLM 驱动的 LLM 价格汇总网站由于这个是作者的一个个人需求,所以目前看到支持了国外的AI服务商,如OpenAI、Azure、AWS、Google等,并没看到国内的AI服务商。
二、Cloud-GPUs
这个是一个和
LLM-Price
类似的网站,唯一的区别是它对比的是GPU的价格,如果对GPU感兴趣的朋友也可以看看
三、OpenUI
如果你对AI生成代码感兴趣,那这个工具一定适合你。OpenUI 是一个用于快速、灵活构建UI组件的工具,通过输入提示词,就能生成UI界面,并且还能生成对应的HTML和React组件。
使用OpenUI非常简单,打开网站后你会看到中间有一个文本框,你可以自由输入对所需界面的文字描述,目前可以支持一些简单的组件生成,比如登录页,商品卡片等等。
比如这是输入”Generate a modal popup for user feedback, including text area and submit button.“ 生成的一个UI组件

点击左上角的箭头按钮选中需要修改的内容,在弹出的对话框中输入修改的指令,就能进行实时修改。还可以输入指令得到简单的动态效果(有点像之前我提到的Pika工具,里面可以对某一个区域进行重绘)。

Demo地址:https://openui.fly.dev/
四、Anything-LLM
Anything-LLM
是一款适用于本地 LLM + RAG 的开源、一体化 AI 桌面应用程序。它允许你将任何文件、资源或内容片段转换为上下文,这样任何大型语言模型(LLM)在聊天过程中都可以将其作为参考资料。该应用程序允许你选择使用商业现成的LLM或流行的开源LLM和向量数据库解决方案,构建一个私人的ChatGPT,你可以在本地运行,也可以远程托管,并且能够与你提供的任何文件进行智能对话。
Anything-LLM将你的文件划分为称为工作区的对象。工作区的运作方式很像一个线程,但它还增加了文件的容器化。工作区可以共享文件,但它们之间不会相互通信,因此你可以保持每个工作区的上下文清晰。

Anything-LLM 还有一些非常酷炫的特性:
- 支持多用户和权限管理
- 在网站上面嵌入聊天小组件
- 两种聊天模式:对话和查询。对话模式保留之前的问题和修改。查询模式是针对你的文件的简单问答
- ...
五、PrivateGPT
PrivateGPT顾名思义,就是你的GPT访问是私密的,不会有数据泄露风险。像我们平常使用OpenAI的ChatGPT的时候,其实他们也会拿我们询问的数据进行训练。
PrivateGPT允许用户在没有互联网连接的情况下,使用大型语言模型(LLMs)的能力来查询文档,其实就是利用本地大模型。目前这个项目斩获了51K个Star,是Github里面的明星项目。

PrivateGPT提供了一个API,提供了构建私密、上下文感知的AI应用所需的所有原语。它遵循并扩展了OpenAI API标准,并支持正常和流式响应。此外,PrivateGPT还提供了一个工作的Gradio UI客户端来测试API,以及一些有用的工具,如批量模型下载脚本、文档文件夹监视等。
六、GPTCrawler
gpt-crawler
是由 BuilderIO 发起的一个开源项目,旨在帮助用户通过爬取网站内容来生成知识文件,从而创建自定义的 GPT。这个工具特别适用于希望基于特定网站内容(例如文档、教程、FAQ等)构建定制化问答系统的场景。
简单理解的话,
gpt-crawler
就是爬虫 + OpenAI 的结合体,比如你想构建一个擅长解答法律的AI助手,就可以通过 gpt-crawler
爬取法律相关数据,然后上传到OpenAI。如果我不想上传到OpenAI怎么办?其实你思维可以发散一下,我前面讲到的
PrivateGPT
恰好就提供了一个API,并且它遵循并扩展了OpenAI API标准,所以你其实可以将 gpt-crawler
+ PrivateGPT
结合,这样就可以构建一个属于自己的AI助手。目前
gpt-crawler
支持对单个URL爬取,如果要爬取多个URL,你就必须提供一个 sitemap.xml 的链接,比如 https://builder.io/sitemap.xml如果你要爬取的网站没有提供 sitemap.xml,或者你想同时爬取多个网站的链接,有两种办法,一是通过
npm run start:server
启动 gpt-crawler
的API服务器,然后通过 /crawl
端点发送 POST 请求来实现;第二需要稍微改动下源码,加个配置,然后在获取下载链接的地方替换成多个URL。我是AI技术巫,欢迎关注我,掌握第一手AI资讯与技巧!

- 作者:AI技术巫
- 链接:https://ilovetech.cn/article/ai_tools
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。