使用 ChatGPT 作为技术写作助手
一位经验丰富的技术作者探索使用 ChatGPT 来协助完成多项写作项目。他发现 ChatGPT 可以通过草稿和提示附加内容来节省时间,但缺乏准确性和深度 - 并且过于乐观。总体而言,如果你迭代工作,提出精心设计的提示并要求小块内容,它将非常有用。
2023 年 4 月 25 日
最近几周,我一直在探索在专业环境中使用 ChatGPT。作为一名顾问,我广泛撰写有关技术和软件的文章,为客户提供建议,并与内部团队合作。为了避免任何潜在的知识产权问题,我咨询了我的老板和公司律师之一。我特别避免在任何与客户相关的情况下使用 ChatGPT。相反,我专注于将 ChatGPT 用于面向公众的技术写作,从而最大程度地减少无意中将专有信息暴露给 AI 的可能性。
我们希望为我们的 Twitter 卡片添加一张图片,对于这张图片,我们自然而然地选择了 Stable Diffusion。我们使用了提示“一个人和一个人工智能面对面进行概念艺术创作,使用高级全息显示屏进行协作,近距离,中长构图”(Stable Diffusion v2-1_768-ema-pruned,模型哈希 ad2a33c361,种子 564306172)
目标和期望
当我第一次考虑使用 ChatGPT 作为写作助手时,我心中有一些具体的目标。我希望它帮助我完成的主要任务之一是为 Thoughtworks 技术雷达制作“简报”。雷达涵盖了 100 多项单独的技术,虽然我们的团队对每项技术都进行了详细讨论,但将这些笔记转化为连贯的段落可能具有挑战性。我希望 ChatGPT 可以简化此过程并提高效率。
除了简报之外,我还撰写了一篇名为“技术行业宏观趋势”的随附文章,深入探讨了我们在该领域观察到的更广泛的主题和模式。我很好奇 ChatGPT 是否可以在塑造这篇文章中发挥作用,提供见解甚至贡献内容。
最后,我们还将技术雷达应用于业务环境,旨在让非技术受众更容易理解其高级主题。这通常涉及简化复杂概念并以更易于理解的格式呈现它们。我想探索 ChatGPT 在协助此任务方面的潜力,帮助我们创建内容,以便有效地向更广泛的读者群体传达我们的想法。
雷达简报:Webhook 的休闲管理 - 保留
迈克
您好。请帮助我以 Thoughtworks 技术雷达的风格撰写一篇“简报”,内容是关于“随意管理网络挂钩”的危险。总结一下下面的笔记和讨论
随着远程办公的兴起,我们持续看到聊天协作平台(例如 Slack、Google Chat、Microsoft Teams)的采用率不断提高,随之而来的是“ChatOps”的兴起。大多数聊天协作平台都提供网络挂钩,作为向频道发送消息和通知的简单自动化方式,并且许多开发者平台工具(例如 CI/CD 软件、监控软件等)都在构建对利用这些网络挂钩的一流支持。然而,有一种趋势是将这些网络挂钩视为配置,而不是视为秘密/凭证。我们看到这种趋势体现在聊天工具如何呈现网络挂钩、团队如何处理和存储网络挂钩(例如以纯文本形式提交到仓库)以及集成工具如何处理网络挂钩(例如以纯文本形式公开它们)。这是一个安全隐患,可能使组织面临网络钓鱼攻击。
ChatOps 网络挂钩是一种凭证:它们提供对内部空间的特权访问。在某些情况下,它们直接包含可以提取并直接利用的 API 密钥。如果不将它们视为秘密,就有可能被用于网络钓鱼,并且由于缺乏对这种类型的攻击的认识,网络钓鱼更有可能成功。Git 仓库中的网络挂钩可以轻松提取并用于制作和发送欺诈性有效负载,用户可能没有理由怀疑也没有办法进行身份验证。目前尚未报告此类重大事件,这只会增加自满情绪。为了减轻这种威胁,我们需要看到团队处理这些网络挂钩的文化以及构建与 ChatOps 平台集成的软件开发人员的文化发生转变。
ChatGPT
以下是 Thoughtworks 技术雷达风格的简报
随意管理网络挂钩的危险:一个安全隐患
随着远程办公的持续兴起,聊天协作平台和 ChatOps 的采用率也在不断提高。这些平台通常提供网络挂钩,作为向频道发送消息和通知的简单自动化方式,但我们注意到一个令人担忧的趋势,即将网络挂钩视为配置,而不是视为秘密/凭证。这可能导致网络钓鱼攻击和内部空间遭到破坏。
网络挂钩是提供对内部空间的特权访问的凭证,并且可能包含可以轻松提取并直接利用的 API 密钥。如果不将它们视为秘密,就有可能成功进行网络钓鱼攻击。Git 仓库中的网络挂钩可以轻松提取并用于发送欺诈性有效负载,用户可能没有任何办法进行身份验证。
为了减轻这种威胁,处理网络挂钩的团队需要改变其文化,并将网络挂钩视为敏感凭证。与 ChatOps 平台建立集成的软件开发人员还必须注意这种风险,并确保网络挂钩得到适当的安全措施的处理。让我们不要等到发生重大事件才采取行动。
讨论
此输出相当不错,尤其是第一段,它论证了 ChatOps 的兴起,并解释了网络挂钩如何相关。最后一段是某种“行动呼吁”,这对于雷达小点来说并不合适,但删除它很容易。Thoughtworks 已发布技术雷达十多年了,因此只需以“Thoughtworks 技术雷达的风格”要求输出,即可创建具有或多或少适合雷达小点风格的文本。如果我想要不同风格的东西,我需要在我的提示中更具体。您可以在雷达网站上看到最终的网络挂钩的随意管理文本,以查看我们在编辑(包括一轮公司范围内的反馈)后最终得到了什么。
雷达简报:Giskard - 评估
以 Thoughtworks 技术雷达的风格,为“Giskard”编写一个“小点”。结合以下注释,并将结果撰写限制在两段。
Giskard 是人工智能模型的质量保证,例如帮助查找偏差
原因
这似乎是一种新型工具,它可以轻松实现数据科学家和业务利益相关者/中小企业之间的协作。目前还没有使用该工具的实际经验。
人物 A:我交谈过的人强调了质量保证部分,您可以为其编写各种测试
人物 B:此处的“原因”是从网站上复制的,但实际上是什么让协作变得更容易?
人物 C:当我们推理模型时,会涉及许多业务含义,因此避免偏差可以成为模型的质量指标;您可以与业务一起为您的模型编纂验收标准
与其他工具相比,此工具最关注数据质量
Giskard 作为人工智能模型的新型质量保证解决方案出现,专门设计用于识别和减轻偏差。通过关注数据质量,Giskard 区别于市场上的其他工具。它促进了数据科学家和业务利益相关者之间的协作,使他们能够基于避免偏差和其他基本质量指标共同为人工智能模型建立验收标准。这确保了模型结果与业务目标更好地一致,同时最大程度地降低了与偏差预测相关的风险。
虽然我们对 Giskard 的实际经验有限,但与用户之间的对话强调了它支持广泛的质量保证测试的能力。该工具的独特价值主张在于促进技术和非技术利益相关者之间的无缝协作,从而更容易推理模型及其业务影响。通过允许团队编纂其标准,Giskard 促进了透明度,简化了开发过程,并帮助组织构建更强大、更合乎道德的人工智能模型。
讨论
对于雷达上的“评估”小点来说,该文本显然过于乐观。ChatGPT 已在互联网上的大量营销页面上接受过培训,并使用人类反馈进行了微调,这导致机器人说出我们永远不会说的话。诸如“新颖”和“独特”之类的词是我会编辑和删除的内容。
不过,这里非常有趣的是,我们芬兰的一位机器学习专家给出的回应。她说,这听起来像是由一位对典型 ML 工作流程了解甚少的小白写成的,并且在该简报文本准备发布之前,她做了一些非常重大的更改。我不是这个特定工具的专家——尽管我使用过一些 ML 工具链——而此关键反馈强调了一个事实,即 ChatGPT 输出通常需要非常熟练的专家来审阅和编辑。以下是经过人工审阅和编辑后的雷达上的 Giskard 简报。
宏观趋势文章
我是 Thoughtworks "宏观趋势" 系列文章的作者。您熟悉这些文章吗?您能告诉我它们是关于什么的吗?
作为人工智能语言模型,我熟悉广泛的主题,包括 Thoughtworks "宏观趋势" 系列文章。该系列旨在识别和分析塑造技术、商业和社会的重大宏观趋势。这些趋势通常具有全球影响力,并且是由技术进步、消费者行为变化、经济转变和全球事件等因素推动的。通过了解这些宏观趋势,组织和个人可以更好地适应变化并利用新兴机遇。
这些文章中涵盖的一些关键主题可能包括(但不限于)
人工智能和机器学习的兴起
数据隐私和安全日益重要
数字化转型在企业中的作用
气候变化和可持续发展努力日益增长的影响
物联网 (IoT) 和互联设备的扩展
劳动力的演变和工作的未来
新技术(例如区块链和量子计算)的发展
每篇文章的具体内容可能有所不同,具体取决于撰写时间和当时的相关趋势。
好的,我想您已经明白了。我想说的是,它实际上并不是关于社会,而更多的是关注技术产业。
我为新文章做了一些关于新趋势的笔记。我希望您帮助我将我的笔记表述为宏观趋势文章的部分内容。
第一个趋势围绕团队的知识管理。我们讨论了有趣的工具 Logseq 和 Obsidian,并撰写了有关它们的简报。对于 Logseq,我们写道
团队知识管理是一个熟悉的概念,团队使用 wiki 等工具来存储信息和接纳新团队成员。我们的一些团队现在更喜欢使用 Logseq 作为团队知识库。Logseq 是一款开源知识管理系统,由图形数据库提供支持,它帮助用户整理思想、笔记和想法,并且可以通过基于 Git 的存储进行团队使用。Logseq 允许团队构建一个民主且易于访问的知识库,为每个成员提供个性化的学习历程并促进高效的接纳。但是,与任何知识管理工具一样,团队需要对他们的知识库进行良好的整理和管理,以避免信息过载或混乱。
虽然 Obsidian 等工具也具有类似的功能,但关键区别在于 Logseq 专注于消费,基于段落的链接使团队成员能够快速找到相关内容,而无需阅读整篇文章。
您能将此内容转换为有关团队知识管理工具的宏观趋势文章部分吗?它应该大约有 3 段长。
新兴趋势:面向团队的下一代知识管理工具
在当今快节奏的技术环境中,有效的知识管理对于团队保持竞争力和敏捷性比以往任何时候都更加重要。像 wiki 这样的传统工具通常用于存储和共享信息,但最近人们对更先进、更通用的知识管理系统产生了浓厚的兴趣。Logseq 和 Obsidian 等新工具提供了创新功能,正在改变团队管理、访问和参与其集体知识的方式。
开源知识管理系统 Logseq 就是这种转变的一个典型示例。它由图数据库提供支持,可帮助用户整理想法、笔记和创意,并且可以通过基于 Git 的存储进行调整以供团队使用。Logseq 的独特方法使团队能够构建一个民主且可访问的知识库,为每个成员提供个性化的学习历程并促进高效入职。其基于段落的链接功能使团队成员能够快速找到相关语境,而无需阅读整篇文章,强调了其对消费的关注。然而,与任何知识管理工具一样,团队都需要应用良好的策展和管理实践,以避免信息过载或混乱。
同样,Obsidian 提供了强大的知识管理功能,但更注重内容创建。虽然这两种工具都提供了用于管理和访问信息的宝贵功能,但它们之间的差异突出了团队知识管理的不断演变。随着这些工具的不断发展和普及,它们将重新定义团队协作和学习的方式,最终推动科技行业的创新和生产力。
讨论
与 ChatGPT 起草的雷达脉冲类似,这段文字过于“浮夸”。诸如“比以往任何时候都更关键”之类的短语听起来有点夸张。我发现这是一个普遍的主题——ChatGPT 实在是过于乐观和欢快,而且因此几乎有点“平淡”。但可以通过快速编辑来解决这个问题,并引入更像是我会用来描述这一趋势的词语。
此外,ChatGPT 似乎总是将其响应构建为引言、信息、总结。它似乎无论你提出的是开放式问题还是要求它帮助你创建文章的部分,都会这样做。我发现我反复需要丢弃或浓缩 ChatGPT 输出的开头和结尾段落。
你可以在 Thoughtworks 网站上找到已完成的宏观趋势文章。
为技术性较弱的受众调整雷达
我需要改写一些以技术语境讲述的故事,但要面向不太懂技术的商业受众。
多年来,可访问性一直是组织的一个重要考虑因素。最近,我们重点介绍了我们的团队使用不断增长的工具和技术集的经验,这些工具和技术集为开发增加了改进的可访问性,并且我们的团队所在的一些地区通过宣传活动强调了对这些技术的认识。我们已经展示了与持续集成管道开发、[设计手册](/radar/techniques/accessibility-annotations-in-designs)、[智能引导可访问性测试](/radar/techniques/intelligent-guided-accessibility-tests)、[linting](/radar/tools/axe-linter)和[单元测试](/radar/tools/ibm-equal-access-accessibility-checker)相关的可访问性相关脉冲。对这个重要主题的认识不断提高是受欢迎的;以改进的方式让更多人获得功能的技术只能是一件好事。
你能以“它是什么”(一两句话)和“商业语境”(一段话)的形式改写这个吗?
它是什么?
可访问性对组织变得越来越重要,随着越来越多的工具和技术可用于改进开发过程中的可访问性,并且宣传活动推广了其重要性。
商业语境
随着企业优先考虑可访问性,他们正在采用各种工具和技术,使他们的产品和服务更具包容性。这些工具和技术包括持续集成管道开发、设计手册、智能引导式可访问性测试、linting 和单元测试。拥抱可访问性不仅有利于更广泛的用户,而且还能提升公司在社会责任和包容性方面的声誉,最终为组织及其客户带来积极的结果。
你能用一句话描述“可访问性”吗?
可访问性是指产品、服务和环境的设计,确保残疾人能够有效且轻松地访问、使用和与之交互。
基于此,你会给企业提供哪些有关可访问性的建议?
企业应优先考虑可访问性,通过设计和调整其产品、服务和环境,使其对残疾人具有包容性和用户友好性,从而展示社会责任、提升声誉并接触到更广泛的客户群。
讨论
我对这个输出非常满意。ChatGPT 提供了一个非常好的 Radar 主题的“商业可读”版本,这绝对为我节省了一些时间。我认为它生成的建议非常好。
ChatGPT 在技术写作中的优势和劣势
总体而言,我认为 ChatGPT 已被证明是技术写作过程中一个有用的工具,但它并非没有缺点。了解它的优点和缺点可以帮助你充分利用它。
优点
- 知识: ChatGPT 擅长即时回忆类似的情况、事实以及他人讨论某个主题的方式。这使它能够提出可能与手头主题相关的附加观点,促使我作为作者撰写更多内容或涵盖其他相关信息。
- 节省时间: ChatGPT 的输出作为写作的良好起点,通过提供可以完善或扩展的初始内容来节省时间。
- 建议的补充: ChatGPT 可以提供有关附加内容或部分的建议,它们通常非常有用。我向它提供了本文的大纲,它提出了“目标和期望”和“改进 ChatGPT 输出的策略”作为附加部分,这两个部分我都喜欢并将其纳入了我的写作过程中。
缺点
- 准确性和深度: ChatGPT 的响应可能并不总是准确或深入,需要手动审查和修改。它还有一个“信息截止”日期,因此最近的事件或更新不会反映在其输出中。
- 过于积极和乐观: 该 AI 倾向于产生过于积极和乐观的的内容,当需要批判的眼光时,例如技术雷达脉冲时,这可能不合适。
- 上下文限制: GPT-3.5 和 GPT-4 都具有上下文限制,而 GPT-4 的限制明显更大。此限制可能导致 ChatGPT 仅考虑其最近的输出或忘记进程中早期的上下文的问题。
- 锚定: ChatGPT 有时会“卡住”或“锚定”在局部最大值。例如,我曾要求它将一些要点笔记扩展成一篇多段文章,效果很好。我认为输出可以更详细,并要求它扩展它所写的内容,但它又产生了基本相同的内容,而没有像我要求的那样实际添加细节。在这种情况下,可能需要使用迄今为止最好的输出开始一个新的聊天来克服这个问题。
改进 ChatGPT 输出的策略
ChatGPT 可以成为一个有用的技术写作助手,但输出的质量在很大程度上取决于你如何使用它。以下是一些完善 ChatGPT 响应的技巧
- 使用情境设定提示:创建、调整和重复使用情境设定提示,概述写作风格、情境和目标受众。这有助于确保后续内容保持一致的语调,并根据你的要求进行定制,即使你需要在多个聊天会话中中断你的工作。
- 迭代工作:就像与人类作家合作一样,重要的是要记住,ChatGPT 可能不会在第一次尝试中就完全正确。要有耐心,花时间引导 AI 朝正确的方向发展,通过迭代完善其输出。如果你发现某个特定指令有用,请将其纳入你的情境设定提示。
- 专注于较小的内容:GPT-3.5 更适合处理较小的内容,例如文章的各个部分。GPT-4 更擅长处理较长的文章,但通常最好与 AI 进行单独的对话来创建大纲,然后单独处理每个主要部分。
- 使用协作方法:将 ChatGPT 视为有价值的同行,而不是下属。大型语言模型往往会以其明显水平对用户做出回应,因此提供专业提示将增加你收到专业输出的几率。
避免过度依赖 AI 生成的内容
我还一直在尝试将 ChatGPT 用于编码目的,特别是为了帮助我学习新的技术堆栈(我计划在未来的文章中探讨这个主题)。在几次情况下,GPT-4 在会话期间出现了停机,这让我感到有些不知所措——我的 AI“伴侣”突然消失了!GPT-3.5 仍然在线,但它并不是那么好;我更喜欢使用 GPT-4。这凸显了一个事实,即依赖这些 AI 工具出奇地容易。以下是一些保持批判性视角并确保高质量输出的技巧
- 评估 AI 生成的内容:始终仔细检查 AI 的输出以确保准确性和相关性。考虑你是否同意该内容,是否存在任何事实错误,或者是否存在你可能不认可的含义。
- 识别缺失的内容:分析输出,找出任何缺失的细微差别或如果你自己写这篇文章会提出的具体观点。一旦你有一篇看似完整的作品,要发现这些差距可能具有挑战性,但这是保持你的作品质量的重要一步。
- 投入足够的时间:请记住,批判性地编辑 ChatGPT 的输出需要时间。“AI 生产力提升”可能不像人们最初想象的那么大。如果你无法投入必要的精力,内容可能无法达到你的标准。
- 承担所有权:记住,最终,这是你的内容,你的名字在文章上。将 ChatGPT 视为一个有用的工具,但不要忘记你对最终输出的责任。
我想说我作为写作助理使用 ChatGPT 的实验是成功的。总体而言,我认为我没有节省时间,更多的是通过使用 AI 的输出作为起点来取得稳定的进展。我认为这种使用 LLM 的方式——创建初稿并提出补充建议——适用于软件世界中的各种任务,从故事写作到验收测试再到文档编制。我认为 AI 不会取代我们的工作——你仍然需要一个人类专家来处理输出——但我确实希望这些工具能帮助人类产生更高质量的结果。从现在开始,有效地使用 AI 工具已成为知识工作者的关键技能。
重大修订
2023 年 4 月 25 日:已发布