
乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
虽然LLaMA模型在通用领域通过指令微调已经展示出了令人印象深刻的性能,但对于自媒体创作、直播和运营等领域,由于缺乏专业的训练数据,其能力仍有待提高。为了解决这个问题,我们提出了MediaGPT,(曾用名MediaLLaMA)首先在大规模自媒体语料上进行连续预训练,系统地学习自媒体的知识体系。然后,我们借助ChatGPT收集了一批关于抖音运营、短视频创作、巨量千川投放、直播运营和直播话术技巧等领域知识问题的分析和回答,并利用这些数据对模型进行指令微调,使模型习得如何将自媒体知识应用到实际场景中。
我们的模型具有以下能力:
本站AI导航提供的MediaGPT:中文自媒体大模型都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由AI导航实际控制,在2024年7月8日 下午5:23收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,AI导航不承担任何责任。