🚀 我们如何在 Meilisearch 实践 AI
在您的公司中,难以让 AI 真正发挥价值吗?了解我们如何在 Meilisearch 将零散的 AI 使用转化为系统性成功,并提供您今天即可实施的实用框架。

当我们发现 70% 的团队成员每天都在使用 AI 工具,但效果却千差万别时,我们意识到需要一种系统性的方法。不是又一个模糊的“AI 转型”倡议,而是一个实用的框架,用于将 AI 炒作与实际价值区分开来。
以下是我们为评估和实施公司范围内的 AI 工具而开发的具体系统,以及我们迄今为止学到的经验。
我们揭示的惊人现实
当我们在 Meilisearch 开启 AI 之旅时,我们预期会发现零星的采用情况。然而,我们发现了一个更有趣的现象:普遍的实验,但价值却不尽相同。
采纳悖论
我们公司范围内的评估显示,每一位团队成员都已尝试过 AI 工具,其中高达 70% 的人将其融入日常工作流程。
但数字只说明了一半事实
尽管采纳率很高,但团队对 AI 价值的看法却出人意料地参差不齐。许多人正在使用这些工具,但却质疑它们是否真正有益,抑或只是制造了另一种形式的忙碌工作。
使用与感知价值之间的这一差距成为我们的第一个关键洞察。
改变我们方法的四个关键洞察
之前分享的洞察
- 🧠 随着专业知识的增长,AI 的价值会降低吗? 您与 AI 的关系如何随专业知识水平的变化而改变。
- 🔍 解锁我们的 AI 知识共享蓝图: 了解人们想要知道什么才能开始使用。
- 🤝 在 AI 增强的工作场所中保持人际联系:引入 AI 会让我们团队的独特之处流失吗?
通过对所有部门的深入访谈,我们发现了在简单使用统计数据中不会出现的模式
- 🌿 环境影响:我们的团队对 AI 的环境影响提出了深思熟虑的担忧。
- 🤔 专业知识悖论:随着团队成员领域专业知识的增长,他们对 AI 价值的看法通常呈现 U 形曲线。初学者发现 AI 对学习有帮助,专家将其用作强大的加速器,但处于中间水平的人有时会发现它弊大于利。
- 🎯 信任困境:AI“不一致的卓越表现”产生了一个根本性的信任问题——有时具有变革性,有时却令人费解地偏离目标——这使得团队不愿将其整合到关键任务流程中。
- ✨ 创意加速:尽管存在疑虑,但几乎每个人都报告了创意流程的显著改进——从消除写作障碍到改变编辑工作流程。
- 🔭 提示词复杂性差距:大多数团队成员仍在使用基本的提示技术,并未意识到通过更高级的方法,他们的结果可以得到多么显著的改善。
这项调查显示,我们面临的并非采纳问题,而是价值提取挑战。人们正在使用 AI 工具,但未能持续获得有意义的结果。我们需要一个框架来帮助团队识别 AI 实际可以创造价值的地方,以及它只是增加复杂性的地方。
⚖️ 我们的解决方案:AI 价值评分矩阵
基于这些洞察,我们开发了一个系统性框架,以穿透 AI 炒作周期。我们没有追逐最新的工具或模型,而是创建了一种数据驱动的方法,用于识别 AI 在我们特定情境中能够创造真正价值的地方。
价值评分矩阵:每个潜在的 AI 用例都根据与我们组织优先级对齐的多个加权维度进行评估。这将“我们应该在哪里使用 AI?”这一抽象问题转化为一套具体的、可比较的分数。
我们的六个关键维度
维度 | 权重 | 评估内容 | 重要性 |
---|---|---|---|
可行性 | 20% | 当前技能/资源下的实施难度 | 防止我们追求技术上令人印象深刻但不切实际的应用 |
收入影响 | 25% | 增加营收增长的潜力 | 确保 AI 举措有助于业务成功 |
数据准备度 | 15% | 所需数据的可用性和质量 | 许多 AI 项目失败是由于数据问题,而非技术限制 |
价值实现时间 | 15% | 实现有形结果的速度 | 通过快速成功建立势头 |
风险 | 10% | 潜在的挑战或弊端 | 防范意外后果 |
内部影响 | 15% | 受益人数/团队数量 | 优先考虑广泛改进而非狭窄优化 |
以下是我们如何应用此框架评估潜在 AI 举措的
这种系统性方法摒弃了关于采用哪种 AI 工具的主观争论,取而代之的是与我们战略重点相符的循证决策。
早期成果:超越 AI 炒作周期
我们的评分矩阵已经改变了 Meilisearch 处理 AI 的方式
1. 从无限选择到战略聚焦
我们的团队不再淹没在源源不断的新 AI 产品中,而是拥有了一个清晰的筛选标准:“这个工具是否解决了我们的高分用例之一?”这极大地减少了干扰和错失恐惧症(FOMO),同时增加了有意义的采用。
2. 平衡投资:“法拉利”和“货轮”
我们正在战略性地平衡我们的实施
- “法拉利”项目:能产生兴奋和动力的快速成功(例如,自动化我们的内部文档更新)
- “货轮”计划:具有变革潜力的大规模努力(例如,借助 AI 协助重新构想我们的客户支持工作流程)
3. 创建专门的实验空间
一个重要的经验是:AI 的采纳需要受保护的时间。我们已将专门的“AI 探索模块”整合到我们的工作日程和即将举行的团建活动中,重点关注我们得分最高的用例。
4. 解决实际问题
评分矩阵通过风险维度自然地纳入了道德考量。我们通过以下方式将其付诸实践:
- 在可能的情况下,优先选择更小、更高效的模型
- 优先选择允许我们在本地运行模型的开源选项
- 预留时间用于人工审核 AI 生成的内容
框架实战:案例研究
在将我们的评分矩阵应用于通过内部讨论确定的用例后,我们迅速发现了高影响力的机会。一个突出的例子是改进我们的代码审查流程——特别是减少拉取请求(PR)的首次审查时间。
该用例在多个维度上得分很高
- 现有工具下的高可行性
- 对开发速度的直接影响
- 明确的价值实现时间指标
- 对工程团队的广泛内部影响
我们实施了 CodeRabbit,这是一个由 AI 驱动的代码审查助手,可提供即时 PR 反馈。在保留我们必要的人工审查流程的同时,该工具能识别常见问题并提供自动化的 PR 描述。经过为期两周的试用期后,我们测量了量化指标并收集了团队反馈。
结果验证了我们评分框架的预测
- 首次审查的平均时间缩短
- PR 文档质量提升
- 团队积极采纳和参与
- 整个工程组织的累计时间节省
接下来:轮到你了
我们分享此框架是因为我们相信它可以帮助其他组织摆脱 AI 炒作,专注于价值创造。
成功采纳 AI 的关键不在于拥有最花哨的工具,而在于拥有最清晰的框架,以识别 AI 在您的特定情境中真正增加价值的地方。