分享
奇绩大模型日报(8月 17-18日)
输入“/”快速插入内容
奇绩大模型日报(8月 17-18日)
用户150
用户150
用户1188
用户1188
用户5537
用户5537
用户8534
用户8534
用户887
用户887
用户6465
用户6465
2024年8月19日修改
📡潜空间活动报名
🎉
潜空间系列活动第三季第三期开启报名!
本期活动将在
8月24日
10:00 am
开始,嘉宾是
童晟邦
。童晟邦,纽约大学博士,伯克利人工智能实验室(BAIR)研究员, OpenAI 超对齐奖学金获得者。他将和大家探讨
视觉在多模态大模型中扮演的角色
。
除嘉宾分享外,每期设置了【匹配合伙人 Cofounder Matching】环节。你可以和 GenAI 时代最有活力的创业者和研究者线下面对面交流,将有机会找到志同道合、有共同创业梦想的小伙伴。
报名通道已开启,欢迎扫描下方二维码报名。
推特
Claude发布新功能:截图按钮,允许快速捕捉屏幕上任何位置的图像,并加入提示中
https://x.com/alexalbert__/status/1824483452802175082
周五新功能发布:
我们新增了一个截图按钮,允许您快速捕捉屏幕上任何位置的图像,并将其加入您的提示中。
50%
50%
Raschka分享:大型语言模型的预训练和后训练新范式
https://x.com/rasbt/status/1824791441664512464
大型语言模型(LLM)的预训练和后训练新范式
探讨现代LLM的训练方法
大型语言模型的发展历程漫长,从早期的GPT模型到如今复杂的开源权重LLM,已经取得了巨大的进步。最初,LLM的训练过程仅关注于预训练,但后来扩展到了包括预训练和后训练的双重过程。后训练通常包括监督指令微调和对齐,这种方法因ChatGPT而广为人知。
50%
50%
Sean分享:试用新的Flux Controlnet深度模型
https://x.com/ThoseSixFaces/status/1824819887195537701
试用新的Flux Controlnet深度模型
50%
50%
Cintas分享:用自己的形象训练了一个用于FLUX的LoRA模型
https://x.com/dr_cintas/status/1824480995317350401