大语言模型
大语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等,是通向人工智能的一条重要途径。
大语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等,是通向人工智能的一条重要途径。

文章

大语言模型·2024-05-09
Jessie110联盟成员 · 某银行 擅长领域:人工智能, 大语言模型, 大数据
本文探讨了银行数据基础设施建设面临的挑战及大模型在银行应用中的挑战,提出了大模型时代银行数据基础设施建设思路,分析了大模型应用对银行的意义。建议银行加强科技规划与战略布局,利用新技术手段加速构建数据基础设施,加强风险管控和信息保护,为数字化转型提供坚实基础。...(more)
浏览2938
大语言模型·2024-05-09
elma · 科技公司 擅长领域:人工智能, 大语言模型, GPU
金融行业大模型技术应用广泛,包括智能客服、风险管理、市场分析、个性化服务、自动化流程和智能化投资决策。未来,金融行业将迎来由AI驱动的新阶段,AIAgent全面推广,金融AI安全建设和大模型AI基础设施平台化等趋势。...(more)
专栏: 趋势观点
浏览3866
大语言模型·2024-05-09
朱向东课题专家组 · 某银行 擅长领域:服务器, 存储, 数据库
58 会员关注
本文旨在对向量数据库的运维进行深入分析,并与传统数据库进行对比,以揭示其在运维方面的差异性。通过详细探讨向量数据库与传统数据库在数据模型、存储结构、查询处理、索引技术等方面的差异,方便理解向量数据库的特点和优势。通过提供一些最佳实践和运维设计策略,帮助运维团...(more)
专栏: 趋势实践
浏览774
大语言模型·2024-05-05
Luga Lee联盟成员 · None 擅长领域:云计算, 容器, 容器云
48 会员关注
多任务学习(MTL)通过共享表示来同时训练模型以处理多个相关任务,提高泛化能力和个体任务的适应能力。参数共享策略包括硬参数共享和软参数共享,需考虑任务相关性、模型复杂度和训练数据量等因素。...(more)
浏览2664
评论3
大语言模型·2024-04-25
Luga Lee联盟成员 · None 擅长领域:云计算, 容器, 容器云
48 会员关注
本文介绍了大型语言模型微调的流程和技术,包括预处理、配置模型、训练模型、评估绩效、性能微调等步骤。其中,PEFT技术和LoRA技术是两种高效的微调方法,能够在保持预训练模型主干参数不变的前提下,实现高效的模型调优,为语言智能技术的应用场景拓宽了空间。...(more)
浏览3095
评论3
elasticsearch·2024-04-22
搁浅沉默 · 某股份银行 擅长领域:数据库, 人工智能, 大数据
介绍Elasticsearch集群的静态配置文件,包括集群和节点相关配置,以及安全相关配置;jvm.options文件中的参数配置,用于优化性能和稳定性;需要合理配置内存、线程栈、垃圾回收器、最大停顿时间等参数;log4j2.properties配置文件也需要正确设置。...(more)
浏览620
评论4
大语言模型·2024-04-18
danghl · icfcc 擅长领域:人工智能, 大语言模型, 向量数据库
1 会员关注
本文介绍了如何基于开源大模型快速构建本地知识库应用,包括知识库构建需求、数据挖掘和价值利用、语义知识检索、LLM大模型概述、知识库问答实现思路等方面。同时介绍了选择大模型的三个方面:业务需求、模型效果和模型性能。最终展示了RAG系统在处理大规模信息检索和理解任...(more)
专栏: 趋势实践
浏览2968
评论2
大语言模型·2024-04-16
Luga Lee联盟成员 · None 擅长领域:云计算, 容器, 容器云
48 会员关注
LLM微调和FineTuning技术可提高语言模型性能,但需要大量数据和专业技术人员操作,FineTuning技术仍需解决数据获取和计算资源需求等问题。
浏览4499
评论5
大语言模型·2024-04-15
cpc1989课题专家组 · 某保险公司 擅长领域:存储, 灾备, 双活
40 会员关注
保险业可通过试点应用逐步推广大模型,建议采用在线调用LLMAPI为主、私有部署为辅的通用大模型方案,重点关注智慧办公、智能客服、代码生成和企业知识库等场景。选型时可参考SuperCLUE的中文大模型基准报告,综合考虑部署方式、大模型特点和优势,针对实际业务需求进行模型选型...(more)
浏览3488
评论4
大语言模型·2024-04-07
Luga Lee联盟成员 · None 擅长领域:云计算, 容器, 容器云
48 会员关注
LLMPre-training是通过微调和定制化现有预训练模型,提高模型性能和开发效率的过程,包括数据采集、清洗、标签化、架构选型和实施,可利用海量数据学习语义、语法和世界知识,是实现通用人工智能的关键一步。...(more)
浏览1718
评论4

描述

大语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等,是通向人工智能的一条重要途径。
大语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等,是通向人工智能的一条重要途径。

相关企业云社区

  • NVIDIA英伟达

    主题声望 36

  • X社区推广
  • 提问题