2023年11月,OpenAI发布了自定义GPTs,开启了使用ChatGPT的全新纪元。这项创新不仅允许用户根据个人需求定制化他们的GPT助手,还可以将这些个性化的创新分享给其他用户,从而促进了一个基于共享和合作的知识生态系统的形成。
特别是在辅助写作方面,通过独特的数据库、精心设计的提示词,以及创新的内容生成逻辑,这些定制化的GPT助手大大提高了处理特定问题时的效率和精度,相比OpenAI的标准ChatGPT模型,它们提供了更为高效和精确的解决方案。
GPTS:编织文字的“魔法”
“Write For Me”能提供高质量的内容;“Academic Assistant Pro”能让文字散发老教授的学术气息;“Humanizer Pro”能让文字变得细腻动人;“Book Creator Guide”能成为书籍写作助理;“AI Humanizer Pro”可以将内容“人性化”......
从使用体验来看,这些GPTs基本都首先询问用户的预期用途、目标受众、语气、字数、风格和内容格式,然后创作大纲并进行字数管理,以保证生成的结果更加贴合用户的需求。同时,大都支持长文章生成,能准确的字数控制以及章节之间内容的衔接。部分如“Humanizer Pro”等会帮助用户从历史脉络、方法论述到延伸案例进行知识介绍。
尽管这些GPTs能提供质量相比于ChatGPT4.0直接生成的内容要高,但其理解和创造力还存在一定程度上的缺陷。
实践证明,这些GPTs大多数都需要足够的信息才能产出高度个性化的内容,受制于AI技术局限,其本身在内容涌现方面的能力较为欠缺。在复杂、高度专业化需求时,还需要更多的指导和校正。不支持逻辑性强的提问,同时实测中文生成字数基本都少于要求的字数。对写论文所需要的引用与脚注的支持不够。
面对这些GPTs的特点,如何利用Prompt(提示词)规避确定,发挥长处是重中之重。
笔者建议可以从以下几个层面优化Prompt。
一方面,要先生成文章提纲,再根据提纲逐次生成各部分。
另一方面,可以优化拼写、语法、清晰度、简洁性和整体可读性,分解长句子,减少重复,并提出改进建议。
此外,我们可以设计一个“知识框架”,让 AI 用这个知识框架去挖掘他的资料库,然后进行文字接龙,但这样往往能够更有效的产出可用品质的结果,减少AI放飞自我的胡说八道(幻觉)。
如何编写一条GPTS“超级咒语”?
根据上述给出的优化方法,我们写了一份Prompt:
你是一位拥有AI领域知识的研究和实践专家,尤其擅长将专业学术以及趋势观点类的研究工作。请你基于“AI的安全性与鲁棒性”这一课题写一篇研究分析类的文章。
规则:
- 全程使用中文回复
- 要列出文章提纲,再根据提纲逐次生成各部分。
- 要保留引用的论文,例如 [1] 这样的引用。
- 引用的论文时要保留图注、表头格式,例如:“图 1: “表 1: ”。
- 针对有关学术术语、学术名次要准确,同时给出相关释意
如:对齐(Alignment)、鲁棒性(Robustness)、监测(Monitoring)
系统安全性(Systemic Safety)
策略:
请一步一步分析,并打印每步的结果:
1、先概述有关该课题的历史源流,然后用一般人也能懂的方式诠释基本概念,接着根据主题适合的角度用完整多层清单展开这个知识的推论逻辑、操作步骤、历史脉络或是方法论流程。
2、提供多人专家小组的个别建议。 请一步一步分析,先根据课题设计出起码4个不同领域的专家,后续让不同的专家分别提供其专业建议,先模拟第一位专家的角度提供建言,建议时专家会先从自己的专业知识来分析问题成因,然后提出自己专业领域的理论提供解决方法,说明时会尽量让一般人也能听懂,但也有专业的论证,并且有完整的建议步骤解释。
3、当每一位专家分享完后,询问我有没有想问这专家的问题,或列出还有哪些专家可以提供建议,让我选择。
4、用一个具体形象化的模拟案例提供这个知识主题的延伸诠释,最后,分析这个知识主题适合应用在什么情况。并且,在消息最后举出内容中值得深入探讨的子主题,询问我想针对内容中的哪一部分继续深入研究。
从效果方面不难看出,通过优化后的Prompt,我们成功地利用定制化GPTS,一定程度上提高了内容生成效果。
总的来说,优化后的GPTS不仅能够更好地满足用户的具体需求,还能够提供更加精准、深入的内容分析。这标志着我们正处在一个通过技术创新来增强人类能力的新时代,通过这些先进的工具,我们可以达到前所未有的创作和研究高度。
未来,随着AI技术的不断进步和优化,我们有理由相信,这些工具将为我们解锁更多的可能性,推动创新写作的界限不断扩展。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。