面向开发者的排期自动化

用真正的 API 自动化排期

WhenToMeet 提供完整的排期 API。可嵌入你的应用、让 AI 智能体创建投票、与现有系统同步。tRPC 提供类型安全、Webhook 提供事件、OpenAPI 规范用于代码生成。

挑战

  • 排期工具的 API 像是事后补丁——端点有限、鉴权奇怪、没有 Webhook
  • 每次都手动创建投票太繁琐,你想要自动化
  • 你的 AI 助手能排会,但 API 复杂到难以解释
  • 应用里需要排期功能,又不想从零写时区逻辑
  • 想要可编程的排期,又不想付企业级价格

WhenToMeet 如何帮助你

为自动化而生

每个功能都通过 API 暴露:创建投票、查询档期、确定时间——全部可编程。非常适合脚本、应用和 AI 智能体。

AI 智能体即插即用

干净的 API 加上 llms.txt 文档,让 AI 智能体能直接使用。Claude、ChatGPT 或自定义智能体都能一句话排会。

Webhook 事件

活动创建、确定或预订发生时实时通知。无需轮询即可构建响应式系统。

时区处理

时间以 UTC 存储,按用户时区显示。我们处理夏令时转换和时区边界情况,你不用操心。

简单集成

一次 API 调用即可创建活动并拿到可分享的 URL。无需复杂的 OAuth 流程或 SDK 安装。

主要功能

OpenAPI 规范

完整的 OpenAPI 3.0 规范位于 /api/openapi.json。可在任何语言生成客户端,IDE 中自动补全。

tRPC 端点

基于 tRPC 的类型安全 API。在 TypeScript 中享受完整自动补全,请求/响应内置校验。

可范围限定的 API 密钥

为不同权限创建密钥。只读用于分析,写入用于创建活动。可随时撤销。

Webhook

订阅事件:event.created、event.finalized、booking.confirmed。我们会以指数退避重试 POST 到你的端点。

面向 AI 智能体的 llms.txt

机器可读文档位于 /llms.txt。AI 助手无需阅读 HTML 文档就能理解我们的 API。直接把 URL 给它就行。

3 步开始

1

生成 API 密钥

在仪表盘创建 API 密钥,选择权限范围(只读、只写或读写),复制密钥。

2

调用 API

用标题和时间段 POST 到 /api/v1/polls,获得投票 ID 和可分享的 URL。或者让 AI 智能体替你完成。

3

实现自动化

通过 API 查询投票状态,或用 Webhook 获取更新。所有人投票后通过 API 程序化确定。融入你的工作流。

排期自动化的最佳实践

  • 在数据库中存活动 ID,而不是完整数据。把 API 当作事实来源
  • 用 Webhook 取代轮询,更高效,API 调用更少
  • 面向 AI 智能体时,把它指向 /llms.txt,无需额外解释就能让它理解 API
  • 为不同集成生成不同的 API 密钥,更换泄漏的密钥更容易
  • 用 OpenAPI 规范在你的语言中生成类型化客户端,不要手写 HTTP 调用

常见问题

API 是不是二等公民?+

不是。WhenToMeet 是作为排期基础设施构建的。UI 和 API 共享同一个后端,每个功能都可程序化访问。

速率限制是多少?+

免费版:终身 32 次请求;Pro 版:每小时 1000 次请求;企业版:自定义限制。所有方案的响应都包含 X-RateLimit 头。

我可以不使用 UI 直接用它吗?+

可以。创建活动、收集档期、确定时间——全部可通过 API 完成。需要时再用 UI,自动化是完整支持的。

AI 智能体可以使用这个 API 吗?+

可以。我们发布 llms.txt 让 AI 助手理解我们的 API。Claude、ChatGPT 或自定义智能体都可以创建和管理排期活动。把 API 密钥给你的 AI,再把它指向我们的文档即可。

哪些框架适合配合这个 API?+

任何能发送 HTTP 请求的框架。TypeScript 项目使用我们的 tRPC 客户端可获得完整类型安全。Python、Go、Ruby、PHP 都能通过 REST 调用。

Webhook 是怎么工作的?+

在仪表盘注册一个 Webhook URL。事件发生时我们会 POST JSON 负载。用 X-Webhook-Signature 头校验签名。内置带指数退避的重试。

适合用来构建我自己的排期产品吗?+

适合。把 WhenToMeet 当成排期基础设施使用:通过 API 创建活动,把投票嵌入应用,或在我们的后端之上构建完全自定义的界面。

准备好简化日程安排了吗?

永久免费。无需信用卡。