[AIGC 筆記]如何開發一款AI native的產品?

以產品經理的角度來看GenAI產品

Posted by 李定宇 on Tuesday, April 16, 2024

前言

這是< Reimagined: Building Products with Generative AIReimagined: Building Products with Generative AI>這本書的3位作者,在一次的線上分享時的內容筆記。三位作者都是在矽谷大廠的資深產品經理,在這段事件,許多新創公司CEO、產品經理、工程師都有跟他們詢問有關開發AI native產品的細節、想法等等,他們便一同岀了這本書。

image

主要步驟

由於目前整個LLM產業都還在早期階段,還沒有人能夠提出完整的解決方案,而書中作者們提出了四步來試圖總結GenAI 產品的開發流程:

  • Gen AI Superpower
  • Prompt Design
  • Define Trust Framework
  • AI UI/UX

第一步 Gen AI Superpower

最一開始,要確定這個產品,是否只能因為GenAI賦能而開發出來、而不是跟風為了GenAI而GenAI。那麼,要如何確認這一點呢?首先便是要知道GenAI的強項在哪些方面:

GenAI 能夠賦能的切入點

  • 創意內容生成
  • 資料生成、總結、預測
  • 任務生成、規劃、執行
  • 個性化
  • 實時交互
  • Access Democratization(不知道怎麼翻,不過意思大概是只知識、技能等信息不再難以取得)

所以,如果要用GenAI來開發產品,最好從以上角度來切入;不然,前GPT時代其實應該就有方法可以完成了。

有了以上切入點,接下來就是要「量測」這個產品在多大程度上適合用GenAI來解決

第二步:設計Prompt

接著,就要為GenAI產品設計prompt,這個部分網上有很多內容,包含角色、口吻、回覆格式、任務範例等等。不過如果要想要在GenAI的回覆內容和其他產品有區別性,那麼還需要考慮到更多細節,不過就是case by case了(這個部分可能書中有更多的解釋)

第三步:搭建可信任框架

使用GenAI,一個是用戶的輸入可能是較為私人的資料、另一個是生成內容注定有一定的隨機性,要如何把控GenAI的生成、讓用戶信任並且使用呢?目前沒有一個絕對的方法,不過「可信任」可以從以下角度來切入、做驗證和改善:

  • 隱私性:用戶的對話如果會被模型拿來重新訓練,那麼要如何保證個人的資訊不會被其他用戶透過模型來獲取?
  • 安全性:保護chatbot不會被一些駭客手法來破解、獲取資料
  • 無害性:確保chatbot不會出現有害的回覆(暴力、色情等)
  • 減少偏見:LLM在訓練時,在訓練數據上可能就有偏向某個方向的觀點,那麼該如何確保數據的多樣性?
  • 公平性:chatbot是否公平對待所有用戶(種族、社會地位)
  • 包容性:chatbot是否能夠優先輸出讓用戶感到受歡迎和理解的內容
  • 責任歸屬:chatbot的功能、限制和決策過程是否透明

這個部分其實橫跨基礎通用模型和應用層面,但偏基礎模型一點。

第四步:AI UI/UX

現在也是十分早期、甚至可以說尚未發展的階段,因為目前引領市場的產品就是ChatGPT的對話介面。但是,GenAI的時代,不會是「現有設計的延伸」,而是全新的交互方式和顯示方式

作者們列舉出三種研究方式與方向

  • Wizard of Oz testing:用戶與他們「認為」的GenAI介面進行互動,但實際上時由幕後的人類控制
  • Diary studies:了解用戶對GenAI互動的感知、認知是如何隨著時間而變化
  • Ethical assessments:解決GenAI開發中的偏見、透明度、安全性等挑戰

總結

其實有點混亂,目前對我來說比較有幫助的算是 GenAI 賦能的checklist,能不做的就不要做、聚焦到一個點上面不斷迭代,直到增長的飛輪轉起來。

剩下的應該還是有要看書才能有更深的理解

ChangLog

  • 20240416–初稿