Bad.
news
短视频
长视频
日本 AV
H 动漫
新闻
每日热点
下载 免费看片 App
更多
安全事故
年度热点
新闻快照
加入电报群
成人动漫
评论
相关内容
登录
|
繁體
搜成人🔞
搜新闻📰
最近搜索:
发布时间:
2023-06-23 16:10:41
1
分
数据加载中
关注推特
收听电报
2
1
0
今天MPT 30B模型刷屏了,开源商用模型为数不多的选择里出现了一个比Falcon 40B更好的模型
翻了翻Mosaic创始人Naveen的经历还是挺神奇的
杜克本科毕业后做了十年芯片验证,然后07年去布朗读了个神经科学的PH…
IT技术
(
twitter.com
)
2年前
由
fin
提交
分享到
Markdown支持
提交
提交中...
评论加载中...
您可能感兴趣的:
更多
1
2
1
1
MosaicML发布超大型AI模型MPT-30B,训练成本颠覆行业
AI创业公司MosaicML近日发布了一款拥有3000亿参数的语言模型MPT-30B。令人瞩目的是,这款模型的训练成本只有70万美元,远远低于其竞争对手GPT-…
IT技术
(
twitter.com
)
2年前
•
GPTDAOCN
•
--
点击
0 评论
分享到
2
2
1
1
本周开源三件套
第二个 MPT-7B 开源商业可用LLM的新标准
- 包括base和三个微调模型,instruct,chat,写作
- 其中写作模型支持65k的上下文!是GPT4的两倍。(甚至支持到 84k 。)
- 包含了开源代…
推特中文圈
开源推荐
(
twitter.com
)
2年前
•
orange.ai
•
--
点击
0 评论
分享到
3
2
1
1
一天之内两个高质量的开源LLM发布:
MosaicML 的 MPT-30B 和
UC/LMSYS 的 Vicuna-33B。
IT技术
(
twitter.com
)
2年前
•
GPTDAOCN
•
--
点击
0 评论
分享到
4
2
1
1
好家伙,能手机部署LLM大模型来了。MiniCPM: 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量。与 Mistral-7B相近(中文、数学、代码能力更优),整体性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。
IT技术
(
github.com
)
1年前
•
Geek
•
--
点击
0 评论
分享到
5
2
1
1
开始了,姐妹们,可以开启刷屏模式了。#BilibilixBounPrem
图片
(
twitter.com
)
3年前
•
yanyu
•
--
点击
0 评论
分享到
6
3
2
2
昨晚圈子被一个叫MoE 8x7B模型刷屏了,这应该是第个一个开源权重的MoE架构LLM。
在HF排行榜上这个7B模型击败了很多70B和34B的模型。之前猜测GPT-4的架构的时候很多人就觉得GPT-4用了MoEt架构。
MoE可以与使用两倍FLOPs的密集模型相媲美。例如,使用相同的数据和 FLOP,LLaMA 7B 的 MoE 版本应该与…
IT技术
(
twitter.com
)
2年前
•
歸藏
•
--
点击
0 评论
分享到
7
2
1
1
Google刚刚发布了开源大语言模型 Gemma,这是对标 LLAMA 2 的开源大语言模型。
Gemma是一系列基于创建Gemini模型所使用的相同技术与研究的、在其领域内技术领先的轻量级开源模型。…
IT技术
(
twitter.com
)
1年前
•
宝玉
•
--
点击
0 评论
分享到
8
2
1
1
《开源大模型食用指南》基于 Linux 环境快速部署开源大模型,更适合中国宝宝的部署教程
IT技术
(
github.com
)
1年前
•
Geek
•
--
点击
0 评论
分享到
9
2
1
1
又写了一篇万字文章,Meta 这篇文论太顶了。
LLaMA 2:免费可商用的开源大语言模型
IT技术
(
mp.weixin.qq.com
)
2年前
•
lencx
•
--
点击
0 评论
分享到
闪电预览
创建一个新帐户
只需要几秒!
用户名:
电子邮件:
(必填)
密码:
输入验证码:
点此刷新
创建帐户
登录
已拥有账号并想要登录?
用户名:
密码:
登陆
忘记密码?