Bad.
news
短视频
长视频
日本 AV
H 动漫
新闻
每日热点
下载 免费看片 App
更多
安全事故
年度热点
新闻快照
加入电报群
成人动漫
评论
相关内容
登录
|
繁體
搜成人🔞
搜新闻📰
最近搜索:
发布时间:
2023-06-25 22:00:21
1
分
数据加载中
关注推特
收听电报
2
1
0
理论上最接近ChatGPT的模型,终于有人训练出来了, orca_mini_3b!
基于OpenLLaMa-3B模型,运用WizardLM,Alpaca和Dolly-V2数据集的指导及输入,并采用Orca研究论文的数据集构建方法…
IT技术
(
twitter.com
)
2年前
由
Jeffery Kaneda 金田達也
提交
分享到
Markdown支持
提交
提交中...
评论加载中...
您可能感兴趣的:
更多
1
2
1
1
HuggingFace上有大量的AI模型,相当于AI模型的Github。现在有人做了一个HuggingGPT,把chatgpt连到这些模型上。也就是说ChatGPT现在是人类创建的所有AI的总指挥官了。
推特中文圈
(
twitter.com
)
2年前
•
Jeffery Kaneda 金田達也
•
--
点击
0 评论
分享到
2
2
1
1
GPT-4震撼发布:多模态大模型,直接升级ChatGPT、必应,开放API,游戏终结了?
大陆资讯
(
www.jiqizhixin.com
)
2年前
•
舔你妹
•
--
点击
0 评论
分享到
3
2
1
1
【心智理论可能在大语言模型中自发出现】研究作者Michal Kosinski发现,ChatGPT的同源模型、GPT3.5(davinci-003)可以解决93%的心智理论任务,心智相当于9岁儿童。而2022年之前的GPT系列模型身上,还没有发现解决这类任务的能力。但也有人认为,AI只是学得像是有心智了。
大陆资讯
(
www.qbitai.com
)
2年前
•
风吹大奶两边倒
•
--
点击
0 评论
分享到
闪电预览
4
2
1
1
如何让小模型的推理效果在某些领域比 ChatGPT 这样的大模型还要更强?这篇论文提供了一个思路:
IT技术
(
arxiv.org
)
2年前
•
Barret李靖
•
--
点击
0 评论
分享到
5
2
1
1
深度学习是一个很复杂的领域,尤其是对我这种数学半吊子水平的人,但 的这两本书我竟然能看懂一些,以至于最近还写了一篇超九千字的《ChatGPT背后的语言模型简史》文章来梳理深度学习在自然语言处理上语言模型的发…
推特中文圈
(
twitter.com
)
2年前
•
madawei
•
--
点击
0 评论
分享到
6
2
1
1
《Attention is All You Need》, 10w 次了,它是深度学习里面最重要的文章之一,目前市面上流行的大部分大模型,包括 ChatGPT/Claude/Bard 等等都是以 Transformer 模型为理论基础发展起来的。
推荐李沐的这集科普《Transformer…
IT技术
(
arxiv.org
)
2年前
•
Barret李靖
•
--
点击
0 评论
分享到
7
2
1
1
一位论文作者火了,ChatGPT等大型语言模型何时能成为论文合著者?
大陆资讯
(
www.jiqizhixin.com
)
2年前
•
小唧唧
•
--
点击
0 评论
分享到
8
2
1
1
【ChatGPT参数只有200亿?】谁都没想到,ChatGPT的核心秘密被微软一篇题为《CodeFusion: A Pre-trained Diffusion Model for Code Generation》的论文透露出来了:ChatGPT是个「只有」20B(200 亿)参数的模型。GPT-3参数量就达到了1750亿,实用化以后的大模型居然被OpenAI瘦身了快9倍,这合理吗?
大陆资讯
(
www.jiqizhixin.com
)
2年前
•
墙头看世界
•
--
点击
0 评论
分享到
9
1
0
0
ChatGPT-4 的31倍!ChatGPT-3 的250倍!
新论文使用RMT循环记忆技术拓展了Transformer架构模型的Token输入能力,拓展到了1M token,也就是100万字输入能力。直接分析处理一本书都可以了…
推特中文圈
(
twitter.com
)
2年前
•
nash_su
•
--
点击
0 评论
分享到
创建一个新帐户
只需要几秒!
用户名:
电子邮件:
(必填)
密码:
输入验证码:
点此刷新
创建帐户
登录
已拥有账号并想要登录?
用户名:
密码:
登陆
忘记密码?