AI 日报

20231219 GPT-4.5 秘密解禁?OpenAI 研究员回应全是幻觉





🦉 AI新闻

🚀 GPT-4.5 秘密解禁?OpenAI 研究员回应全是幻觉

摘要:最近,网友发现ChatGPT自称为"gpt-4.5-turbo",引发了关于GPT-4.5提前泄露的传闻。尽管OpenAI研究员否认了这一消息,但网友仍然对此充满兴趣。据ChatGPT透露,“gpt-4.5-turbo"是GPT-4的一个特殊版本,在速度和效率上有所提高,但在语言理解和生成能力上与GPT-4相当。然而,OpenAI并未公开关于"turbo"的具体信息。尽管有些网友质疑这只是提示污染导致的幻觉,但还是有人思考着如何提高模型性能。尽管GPT-4.5的真实性备受争议,但人们仍然期待OpenAI发布新的模型。

🚀 大型AI模型能够自我复制,开启AI自主进化的第一步

摘要:科学家团队表示,他们已经能够让大型AI模型基本上实现自我复制,无需人工干预。他们专注于开发成本极低的微型AI解决方案,可以嵌入各种设备中,为人们的生活带来便利。研究人员表示,他们的技术是一个突破,首次设计了完全自动化的AI模型设计流程。未来,大型AI和小型AI将协作构建一个完整的智能生态系统。

🚀 腾讯云推出高性能应用服务“HAI”,实现10分钟开发AI应用

摘要:腾讯云正式推出了高性能应用服务“HAI”,通过该服务可以实现GPU算力的快速开发和一键部署,用户可以在10分钟内开发自己的AI应用。该服务还提供了多种热门模型预装,支持可视化交互界面和多种算力连接方式。此外,“HAI”还支持学术加速,提升学术资源平台的速度。通过腾讯云的行业大模型精选商店,用户可以快速生成自己的专属模型。

🚀 科学家提出SciGuard保护AI模型,避免滥用和风险

摘要:来自中科大等机构的联合团队提出了一种名为SciGuard的方法,用以保护AI for Science模型,避免在生物、化学、药物等领域的滥用。他们还建立了首个专注于化学科学领域安全的基准测试SciMT-Safety。实验结果显示,SciGuard在防御有害影响方面表现出色。研究团队发现开源AI模型竟可以找到制造化学武器的合成路径,同时指出大语言模型也成为危险信息的获取工具。SciGuard使用大语言模型驱动的agent,结合科学数据库和模型,辅助AI模型进行风险控制。研究团队还提出了化学和生物科学领域的安全问答benchmark,并在测试中显示SciGuard的防御效果最好。该研究呼吁全球合作,加强对AI技术的监管和完善相关技术。

🚀 OpenAI设立“防备”团队监控技术潜在威胁

摘要:OpenAI宣布成立新的“防备”团队,旨在监控技术可能带来的潜在威胁,防止其被用于制造危险武器。该团队将持续监测和测试OpenAI开发的技术,并向公司发出警告。根据指导方针,OpenAI将只推出评级为“低”和“中”的模型。对于超越人类智能的风险,OpenAI采取了较为折中的立场。该团队还将招募国家安全等领域的专家,帮助公司了解应对重大风险的措施。OpenAI还将允许第三方机构测试其技术。

🗼 AI知识

🔥 训练语言模型的基础知识和方法

这篇文章讲述了关于训练语言模型的基础知识和方法。文章首先介绍了Transformer架构,它是一种用于语言建模的常用架构。然后介绍了训练LLMs的三种方法:预训练、微调和低秩适应。预训练是通过大规模数据集训练模型来获得通用语言知识。微调是在预训练的基础上,使用特定任务的小规模数据集来优化模型性能。低秩适应是为了解决微调过程中的计算资源问题,通过减少可训练参数和内存需求来训练更大的模型。最后介绍了QLoRA方法,可以进一步减少内存需求,实现在低资源硬件上训练大规模模型。

🔥 细致分析和实用指南:Llama-2模型的精调

在这篇博客中,作者提供了有关细调(fine-tuning)的详细分析和实用指南。作者通过三个真实世界的使用案例,对Llama-2模型进行了研究,并展示了细调对模型准确性的显著提升(在某些情况下,甚至超过了GPT-4)。作者还介绍了细调Llama-2模型的步骤和方法,并比较了不同方法的优缺点。整篇博客旨在帮助读者更好地利用Llama-2模型,从而提高数据质量和评估过程,并快速应用AI的最新进展



更多AI工具,参考国内chatgpt4meGithub-chatgpt4me

联系我:[email protected]