20240222 谷歌DeepMind团队深夜发布新AI开源模型Gemma
🦉 AI新闻
🚀 谷歌DeepMind团队深夜发布新AI开源模型Gemma
摘要:谷歌DeepMind团队于今日发布了一款名为Gemma的新型AI模型,该模型启发自Gemini,提供两个版本:Gemma 2B和Gemma 7B。这款模型支持Keras 3.0和PyTorch等工具进行微调,可在性能较低的设备上运行,且性能超越竞品Meta Llama-2模型。为确保模型的安全性和可靠性,研究团队采用自动化技术过滤敏感数据,并通过大量微调及“强化学习”等手段提高模型的行为一致性。此外,对模型进行了“红队测试”和“自动对抗测试”以评估其能力,确保模型具有“负责任的特性”。
Kaggle地址:https://www.kaggle.com/models/google/gemma/code/
huggingface地址:https://huggingface.co/models?search=google/gemma
技术报告:https://google/GemmaReport
🚀 Adobe引入AI助手优化PDF内容处理
摘要:Adobe公司宣布,在其Reader和Acrobat应用中加入一款名为AI Assistant的Beta版新功能。该功能旨在帮助用户更高效地汇总和整理PDF文档中的重要信息,方便将内容引入到演示文稿和电子邮件中。AI Assistant不仅能指出PDF中的潜在问题,还能回答用户关于文档内容的问题。Adobe计划未来增加更多功能,包括文档草稿创建和Firefly AI图像生成等。目前,Acrobat的个人版、专业版和团队版用户及Acrobat Pro试用用户已经可以尝试这一功能,Reader用户也将很快能使用该功能。
🚀 OpenAI杀入TikTok,Sora视频火爆引发行业震撼
摘要:OpenAI最近推出的视频生成技术Sora,在TikTok上发布了多个高度逼真的视频,短短4天内粉丝量增加了10万,获得了50万的点赞,引发了广泛的关注和讨论。这些视频不仅展示了AI技术在视频生成方面的巨大潜力,还引发了关于人类内容创作者未来地位的讨论。同时,字节跳动也在研发类似的技术,展现出AIGC领域的竞争正在升温。此外,此次事件对Adobe等传统视频编辑软件和素材供应商也造成了一定的冲击。
🚀 谷歌测试Play商店“应用亮点”AI功能
摘要:谷歌正在对其Play商店测试一项名为“应用亮点”的新功能,该功能通过AI技术为用户提供一个简洁的应用核心特性摘要,帮助用户迅速了解应用的主要功能和亮点。这项服务目前仅向部分用户开放。通过AI算法自动提炼出应用的主要卖点,以便用户能够更轻松、有效地获得下载应用前的相关信息。之前谷歌也曾测试过基于AI的FAQ部分,而此次“应用亮点”功能的测试显示了谷歌致力于运用AI技术优化用户体验的决心。目前还不确定这项功能以及先前的FAQ测试功能是否会全面推广给所有用户。
🚀 OpenAI员工揭示996工作日常
摘要:OpenAI员工Jason Wei分享了自己的工作日常,从早上9点开始到凌晨1点15分结束,涉及会议、编码和监控模型训练等任务。此外,还有前员工披露长时间工作和压力大的情况。工作强度引起了公众的广泛关注,尤其是在ChatGPT推出后,平衡工作和家庭变得更为困难。这种自我驱动的高强度工作模式,不仅体现了OpenAI的高工作要求,也引发了对工作与生活平衡的思考。
🚀 ChatGPT存在异常回复 已快速修复
摘要:ChatGPT用户近日经历了一系列异常回复,包括语言切换、循环输出、胡言乱语等问题,例如在讨论杰克逊家族音乐时出现与话题无关的奇怪回复。OpenAI在2月20日发现并开始调查此问题,并在2月21日宣布已经修复。此事引起了公众的广泛关注与讨论,对于依赖该技术的用户和开发者来说,系统的稳定性和回复的准确性至关重要。
🗼 AI知识
🔥 技术大神Karpathy离职OpenAI后发布教学视频:从头构建GPT Tokenizer
技术大神卡帕西离职OpenAI后,开设了一门长达2小时13分钟的GPT Tokenizer(分词器)教学视频。 课程内容主要包括分词器的介绍、BPE算法原理、分词器构建步骤以及分词器评估和集成到模型中。 卡帕西表示,分词器的构建和优化对于实现高效大模型仍然是至关重要的,尽管他也希望有一天能够不需要分词,直接将字节流输入到语言模型中。
🔥 AI硬件初创公司Groq的性能和成本优势
Groq最近因其展示在推理API上运行领先的开源模型Mistral Mixtral 8x7b的极其出色的演示而引起了人们的关注。他们在推理服务上取得了多达其他推理服务4倍的吞吐量,同时收费不到Mistral本身的1/3。Groq在单个序列上具有真正惊人的性能优势,这可以使诸如链式思维之类的技术在现实世界中更易于使用。此外,随着人工智能系统变得自主,LLM的输出速度需要更高,以满足代理等应用的需求。同样地,代码生成还需要令牌输出延迟显着降低。实时Sora风格模型可能是一种令人难以置信的娱乐途径。如果延迟太高,这些服务甚至可能对最终市场客户不可行或不可用。这使得Groq的硬件和推理服务被认为是人工智能行业的一场革命。虽然这对于某些市场和应用来说肯定是一个改变游戏规则的因素,但速度只是方程式的一部分。供应链多元化是另一个有利于Groq的因素。他们的芯片完全是在美国设计和封装的。与此不同,英伟达、谷歌、AMD和其他人工智能芯片需要从韩国采购内存,并从台湾采购芯片/先进封装。这些都是Groq的优势,但评估硬件是否具有革命性的主要公式是性能/总拥有成本
更多AI工具,参考国内chatgpt4me,Github-chatgpt4me