- Java锁的逻辑(结合对象头和ObjectMonitor)
- 还在用饼状图?来瞧瞧这些炫酷的百分比可视化新图形(附代码实现)⛵
- 自动注册实体类到EntityFrameworkCore上下文,并适配ABP及ABPVNext
- 基于Sklearn机器学习代码实战
每天都要浏览大量AI相关新闻,是不是感到信息量爆炸,有效信息少?
这么多新产品和新工具,到底哪些是真正是有价值的,哪些只是浮躁的一时热点?
想参与AI产品和工具的开发,从哪里能够获得大量的灵感和思路?
我会把AI相关的新趋势、新想法、新思路,和成熟AI产品、工具、模型等整理在这里,帮助大家去除信息噪音,更高效的了解AI前沿发展.
主要围绕:
作为本期刊的第一期,我们主要围绕2023年4月发布的相关产品和技术工具.
https://github.com/lvwzhen/law-cn-ai 。
该项目把 中国法律文书 作为知识库,将知识库embedding后存入向量数据库,然后向用户提供了完整界面,用户可以用自然语言提问,后台使用openAI的API,结合知识库的现有知识进行自然语言的回答.
主要技术:
https://huggingface.co/chat/ 。
Hugging Face发布了一个ChatGPT开源替代品名为HuggingChat。Hugging Face大家都懂的,可以理解成AI界的Github,很多注明的开源模型都在上面首发.
底层模型目前有两种选择:
https://finchat.io/ 。
FinChat.io是由ChatGPT提供技术支持的工具。它利用人工智能生成关于公共公司和投资者的问题的答案。为了提供准确的答案,FinChat会提供推理、来源和数据等支持。实测效果有点酷炫.
https://designer.microsoft.com/ 。
输入文字,通过AI生成一个合适的设计图,且支持动态图。例如下面的文字描述"为我的油管频道‘Science for Littles’设计一个动态的广告"生成了右方的一些设计图,生成速度非常快,还可调节图片尺寸.
选择了右方较为满意的设计后,可以继续在在线编辑器中修改你的设计,支持自由导出各种格式与下载.
https://github.com/builderio/ai-shell 。
将chatGPT整合到你的shell中,用 ai 命令进行操作 。
https://github.com/showlab/VLog 。
V是大写,他可以将一段长视频转换成包含视觉和音频信息的文档。通过将此文档发送到ChatGPT,我们可以针对这个视频的内容进行自然语言聊天!当然,需要消耗你自己的openAI API额度.
https://huggingface.co/spaces/AIGC-Audio/AudioGPT 。
这个工具集里包含了大量音频相关的处理能力工具,大部分工具使用时需要填写你自己的GPT API key,消耗你的额度,我试了一下,文字转语音,一句5个词的句子,消耗了我4000个token!(暴风哭泣!) 。
演讲:
唱歌:
音频处理:
https://github.com/NVIDIA/NeMo-Guardrails 。
NeMo Guardrails 是一个开源工具包,可以轻松地将可编程护栏添加到基于 LLM 的对话系统中。Guardrails(或简称“rails”)是控制大型语言模型输出的特定方式,例如不谈论政治、以特定方式响应特定用户请求、遵循预定义的对话路径、使用特定语言风格、提取结构化数据等.
主要优势:
https://github.com/imClumsyPanda/langchain-ChatGLM 。
一种利用 ChatGLM-6B + langchain 实现的基于本地知识的 ChatGLM 应用。支持将txt、markdown等格式的文本文件上传后,进行提问。会给出自然语言的回答,并且在最后会标注出引用本地文本的出处.
本项目实现原理如下图所示,过程包括加载文件 -> 读取文本 -> 文本分割 -> 文本向量化 -> 问句向量化 -> 在文本向量中匹配出与问句向量最相似的top k个 -> 匹配出的文本作为上下文和问题一起添加到prompt中 -> 提交给LLM生成回答.
支持的LLM模型:
支持的Embedding 模型:
https://mlc.ai/mlc-llm/ 。
MLC LLM是一种通用解决方案,可以使任何语言模型在各种硬件后端和本地应用程序上本地化部署,同时为所有人提供一个高效的框架,以进一步优化模型性能,以适应其自身用例.
我们的使命是使每个人都能够在其设备上本地开发、优化和部署AI模型.
这个方向的探索如果出现突破,将大大减少模型部署和使用的门槛,让全世界的低算力设备也能加入AI算力阵营.
https://github.com/ninehills/chatglm-openai-api 。
让开发者能够用调用openAI API的方式调用其他开源模型,节省大量开发工作.
Github Trending 。
https://github.com/trending 。
Meta360创新学院-AGI前夜 。
https://docs.meta360.vip 。
最后此篇关于【AI新趋势期刊#1】GPT自动理解视频、AI法律顾问、大模型安全围栏的文章就讲到这里了,如果你想了解更多关于【AI新趋势期刊#1】GPT自动理解视频、AI法律顾问、大模型安全围栏的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我已经为此奋斗了几个小时。显然,我不是专家,但我已经做到了这一点 - api 设置,在前端运行,当我输入聊天提示时,它会出现错误,并且gunicorn 返回大长错误。 这是我的 ai_chat.py
我已经为此奋斗了几个小时。显然,我不是专家,但我已经做到了这一点 - api 设置,在前端运行,当我输入聊天提示时,它会出现错误,并且gunicorn 返回大长错误。 这是我的 ai_chat.py
尝试调用刚刚为 ChatGPT 发布的 got-3.5-turbo API,但收到错误请求错误? var body = new {
尝试调用刚刚为 ChatGPT 发布的 got-3.5-turbo API,但收到错误请求错误? var body = new {
最近我必须找到一种方法来区分虚拟机使用的分区类型,从虚拟磁盘读取原始数据我能够通过检查偏移量 1C2(GPT 的 EE)找到它,以防万一MBR 磁盘如果磁盘是动态的,1C2 的偏移量有 42,如果是基
我有一个 Android 应用程序,目前正在使用 chat gpt 3.0 进行补全,并且工作正常。现在,在他们发布 chat gpt 3.5 Turbo 后,我根据他们的请求示例做了一些更改,但抛出
我有一个 Android 应用程序,目前正在使用 chat gpt 3.0 进行补全,并且工作正常。现在,在他们发布 chat gpt 3.5 Turbo 后,我根据他们的请求示例做了一些更改,但抛出
创建微调模型后,如何在/v1/chat/completions 中使用它?我们尝试了这个,但出现了错误 curl --location 'https://api.openai.com/v1/chat/
我收到以下错误: [3067] NetworkUtility.shouldRetryException: Unexpected response code400 for https://api.ope
我收到以下错误: [3067] NetworkUtility.shouldRetryException: Unexpected response code400 for https://api.ope
创建微调模型后,如何在/v1/chat/completions 中使用它?我们尝试了这个,但出现了错误 curl --location 'https://api.openai.com/v1/chat/
我正在围绕 GPT-3 构建一个应用程序,我想知道我发出的每个请求使用了多少 token 。这可能吗?如何实现? 最佳答案 OPEN-AI 通过代币对 GPT-3 的使用进行收费,这包括提示和答案。对
kapt 和有什么区别和 implementation在 Gradle 中声明依赖项时以及何时应该在另一个上使用一个? 例子: //Room Components implementation "an
所以我在我的 React 应用程序中实现了 chat gpt 3.5 Turbo API。所以我的应用程序基本上就像招聘人员的助手。因此,招聘人员向应用程序提供了一个示例职位帖子,并将该帖子发送到聊天
所以我在我的 React 应用程序中实现了 chat gpt 3.5 Turbo API。所以我的应用程序基本上就像招聘人员的助手。因此,招聘人员向应用程序提供了一个示例职位帖子,并将该帖子发送到聊天
我有最新版本的 OpenAi,但缺少某些属性。我试过重新安装它,没有解决它。 GPT 和 Chat 是我发现还不能用的。 切记,我是 python 的新手并且具有该语言的基本知识。代码取自GitHub
我有最新版本的 OpenAi,但缺少某些属性。我试过重新安装它,没有解决它。 GPT 和 Chat 是我发现还不能用的。 切记,我是 python 的新手并且具有该语言的基本知识。代码取自GitHub
我使用的是 gpt-4-0613 模型,具有单个函数,并在系统提示符中包含一些自定义数据。 如果该函数在聊天中很早就被触发,在前两个请求内,它的功能就很好,并且 API 会要求用户提供调用该函数所需的
我使用的是 gpt-4-0613 模型,具有单个函数,并在系统提示符中包含一些自定义数据。 如果该函数在聊天中很早就被触发,在前两个请求内,它的功能就很好,并且 API 会要求用户提供调用该函数所需的
OpenAI 现在允许我们微调 GPT-3.5 模型。我已经使用自己的数据集测试和微调了模型,但问题是微调模型随机生成答案,而不是根据我的自定义数据集正确生成答案。 有什么方法可以让模型仅根据我自己的
我是一名优秀的程序员,十分优秀!