分享
奇绩大模型日报(5月 10日)
输入“/”快速插入内容
奇绩大模型日报(5月 10日)
用户150
用户150
用户5247
用户5247
用户4513
用户4513
用户5537
用户5537
用户1188
用户1188
用户887
用户887
2024年5月10日修改
推特
开局一句话,内容全靠AI!ElevenLabs分享超酷Demo“它开始唱歌”
贡献人:
用户8534
用户8534
https://x.com/elevenlabsio/status/1788628171044053386
这里是ElevenLabs音乐的早期预览。
这个话题中的所有歌曲都是由一个单一的文本提示生成的,没有进行任何编辑。
标题:它开始唱歌
风格:“流行摇滚、乡村、排行榜歌曲。”
50%
50%
吴恩达:对AI应有监管,但应针对应用而非技术;很欣慰美国政府了解了更多AI风险
贡献人:
用户8534
用户8534
https://x.com/AndrewYNg/status/1788648531873628607
上周,我在美国国会的一场活动中讲述了关于AI和监管的问题,参与者包括立法和商业领袖们。开源社区在阻止可能扼杀创新的监管方面取得的进展让我感到鼓舞。但是,反对开源的人正在改变他们的论点,最新的担忧集中在开源对国家安全的影响上。我希望我们都能继续保护开源!
基于我与立法者的对话,我对美国联邦政府在真实掌握AI风险方面取得的进展感到鼓舞。需要明确的是,监管措施是必需的。但是,这些措施应该针对AI应用,而不是通用AI技术。
尽管如此,一些公司渴望限制开源,可能是为了保护他们在专有模型上的巨额投资,并阻止竞争对手。观察他们的论点随时间变化一直很有趣。
例如,大约12个月前,AI安全中心发表的《AI风险声明》警告说AI可能导致人类灭绝,并煽动了AI控制的恐惧。这让华盛顿的领导人感到警觉。但许多AI领域的人士指出,这种反乌托邦的科幻情景与现实基本无关。大约六个月后,当我在美国参议院的AI洞察论坛作证时,立法者不再过多担心AI接管的问题。
然后,反对开源的人改变了策略。他们的主要论点转移到AI帮助制造生物武器的风险上。不久后,OpenAI和兰德公司展示了当前AI并未显著增加坏人制造生物武器的能力。对AI启用的生物武器的恐惧已经减少。当然,坏人可能使用生物武器——无论是否借助AI——仍是一个国际关注的重大话题。
最新的论点是为了国家安全而阻止开源AI。AI对经济竞争和战争都有用,开源反对者说美国应确保其对手无法接触到最新的基础模型。虽然我不希望威权政府使用AI,特别是用于不公正的战争,但大型语言模型(LLM)已经泄露出去了,如果民主国家限制访问,威权国家将填补这一空白。将来某一天,当一个孩子向AI系统询问关于民主、自由媒体的角色或独立司法在维护法治中的功能时,我希望AI能反映民主价值观,而不是优先考虑威权领导人的目标,比如说,人权。
我从华盛顿回来对我们取得的进展感到乐观。一年前,立法者似乎有80%的时间在讨论AI的监管措施,20%的时间在讨论创新投资。我很高兴这一比例已经颠倒,且更多的讨论集中在创新投资上。
纵观美国联邦政府之外,全球有许多管辖区。不幸的是,支持可能阻碍AI发展的监管的论点继续扩散。但我从华盛顿之行和其他国家首都的经历中了解到,与监管机构对话确实有影响。如果你有机会与任何层级的监管机构交谈,我希望你能尽你所能帮助政府更好地理解AI。
50%
50%
基于Llama-3的SQLCoder 8b,在zero-shot到SQL生成方面领先gpt-4-turbo和claude opus
贡献人:
用户8534
用户8534
https://x.com/rishdotblog/status/1788650171246551086
Llama-3基于的SQLCoder 8b已发布!开放权重采用商业友好的cc-by-sa许可证。这可能是目前Postgres文本到SQL领域里<10B参数模型中的佼佼者。
与gpt-4-turbo和claude opus相比,SQLCoder 8b在0次射击文本到SQL生成方面略胜一筹。同时,它接近它们的性能表现。这个模型的新特点是什么呢?
我们之前的小型模型(sqlcoder-7b-2)擅长生成
0次射击
SQL,但在遵循指令方面表现很差。因此,虽然它在我们的评估中表现出色,但在实际使用中,由于遵循指令更为重要,所以表现不佳。
为了解决这个问题,我们在训练这个模型时使用了更多的指令数据。我们还使原始评估变得更加困难,以确保我们保持正确的方向。
评估的变化
我们原始评估的变化有三个:
50%
50%