正文
workbench.action.chat.openEdit
workbench.action.chat.openAsk
其次,开发者遇到重复的任务不用再一遍遍重新输入提示词了。VSCode引入了提示文件的概念。
据悉,提示文件可用于创建可重复使用的常见任务聊天请求。它们包含提示文本、聊天模式和要使用的工具。提示文件使用 .prompt.md 文件后缀。
用户可以打开提示文件,然后按“播放”按钮来运行提示。 开发者还可以使用命令面板中的聊天:
Run Prompt File…
命令。
其次,则是会话摘要和提示缓存方面的高级优化。VSCode对代理模式提示的构建方式进行了调整,以优化提示缓存。提示缓存通过维护提示的稳定前缀,加快模型响应速度。
例如,当你的会话变长或上下文变大时,你就会在代理模式会话中看到“已总结的会话历史”消息,一般包括:最重要信息和当前任务状态的摘要。
同时,VSCode已经实现了对 OpenAI 的应用补丁编辑格式(在 Insiders 中可用,逐步推广到 Stable)和 Anthropic 的代理模式下的替换字符串工具(在 Stable 和 Insiders 中可用)的支持。这意味着开发者可以从更快的编辑中受益,尤其是在处理大文件时。
此外,Chat 现在也推出了一个 LLM 工具,它可以用来运行Notebook cell,这意味着代理可以根据单元格的运行结果进行更新,或在构建笔记本时自行进行数据探索,从而实现更智能的交互和分析。
这些更新将显著提升了 VS Code 在数据科学和 AI 开发中的工作流程效率,使得与大语言模型的交互更加流畅和高效。
最后,内联聊天功能方面,VSCode也给出了新范式,以便更好地利用现有上下文并优化代码编辑策略。启用 inlineChat.enableV2 设置即可查看实际效果。
在其他内联聊天更新中,您现在可以启用 inlineChat.hideOnRequest 设置以查看更轻量级的用户体验。
此外,开发者现在可以使用#extensions工具从市场中查找扩展。这在聊天和代理模式下均可用,并返回与您的查询匹配的扩展列表,然后您可以直接从结果中进行安装。