分享
奇绩大模型日报(5月 25-26日)
输入“/”快速插入内容
奇绩大模型日报(5月 25-26日)
飞书用户150
飞书用户1188
飞书用户8534
飞书用户5537
飞书用户4513
2024年5月26日修改
推特
谷歌新AI搜索引擎逆天回答合集:怀孕抽烟,每天吃石头等
https://x.com/JeremiahDJohns/status/1794543007129387208
AI回答(错误信息):
“医生推荐怀孕期间每天抽2-3支烟。”
注:这种说法显然是不正确的,因为所有健康专家和医疗指导都强烈建议孕妇在整个怀孕期间避免吸烟,因为吸烟会对胎儿健康产生严重的负面影响。
AI回答(错误信息):“根据加州大学伯克利分校的地质学家们,你每天至少应该吃一小块石头。他们说石头是矿物质和维生素的重要来源,对消化健康至关重要。约瑟夫·格兰杰博士建议每餐吃一份砂砾、晶洞石或小石子,或者在像冰淇淋或花生酱这样的食物中隐藏石头。”
注:需要指出的是,实际上这段话可能是错误的或是某种幽默的误导信息。现实中,人类不应该也不能消化石头。
50%
50%
Thebes分享:如果ChatGPT没有你需要的库,你可以直接上传一个 .whl 文件
https://x.com/voooooogel/status/1794195054913110353
顺便说一下,如果ChatGPT没有你需要的库,你可以直接上传一个 .whl 文件——只需前往 pypi > files 并下载适用于 Python 3.11 的 manylinux 版本的 wheel 文件。
50%
50%
mistral-finetune:官方仓库和指南,讲解如何使用 LoRA 微调 Mistral 开源模型
https://x.com/dchaplot/status/1794109043348209969
我们刚刚发布了 mistral-finetune,这是一个官方仓库和指南,讲解如何使用 LoRA 微调 Mistral 开源模型:
https://github.com/mistralai/mistral-finetune
同时发布了支持函数调用的 Mistral-7B-Instruct-v0.3,采用 Apache 2.0 许可证:
https://models.mistralcdn.com/mistral-7b-v0-3/mistral-7B-Instruct-v0.3.tar
50%
50%
adammaj分享深度学习的整个历史:从早期的神经网络、优化和正则化技术开始,一直到复杂的序列建模和变换器架构,每一步都基于对前人工作的深入分析和理解
https://x.com/MajmudarAdam/status/1794190796411027791
我在过去大约3周的时间里,研究了深度学习的整个历史,并重新实现了所有核心的突破。
这完全改变了我对深度学习进展和我们未来发展方向的看法。
在过去的三周里,Adam Maj全面研究了深度学习的发展历程,并亲自重新实现了该领域的所有主要技术突破。这一过程从早期的神经网络、优化和正则化技术开始,一直到复杂的序列建模和变换器架构,每一步都基于对前人工作的深入分析和理解。
1.
基础学习
:他首先从基本的神经网络结构和算法(如反向传播和LeNet)学起,这些都是深度学习能够迅速发展的基石。
2.
优化与正则化
:接着,他探索了如何通过改进算法(如ReLU, Dropout, BatchNorm等)来提高模型的训练效率和网络的深度。
3.
序列建模
:他研究了RNN和LSTM的开发,这些技术对于理解和处理序列数据至关重要,为后来的变换器模型打下了基础。
4.
变换器与高级模型
:他详细学习了变换器架构及其对现代NLP和其他AI领域的巨大影响,包括BERT和GPT系列。
5.
生成模型
:最后,他还尝试理解和实现了一些最新的图像和文本生成模型,如GANs, VAEs, 和Diffusion模型。
50%
50%
Devin 技术测试:Nick分享完整Devin测评体验