前言
這是< Reimagined: Building Products with Generative AIReimagined: Building Products with Generative AI>這本書的3位作者,在一次的線上分享時的內容筆記。三位作者都是在矽谷大廠的資深產品經理,在這段事件,許多新創公司CEO、產品經理、工程師都有跟他們詢問有關開發AI native產品的細節、想法等等,他們便一同岀了這本書。
主要步驟
由於目前整個LLM產業都還在早期階段,還沒有人能夠提出完整的解決方案,而書中作者們提出了四步來試圖總結GenAI 產品的開發流程:
- Gen AI Superpower
- Prompt Design
- Define Trust Framework
- AI UI/UX
第一步 Gen AI Superpower
最一開始,要確定這個產品,是否只能因為GenAI賦能而開發出來、而不是跟風為了GenAI而GenAI。那麼,要如何確認這一點呢?首先便是要知道GenAI的強項在哪些方面:
GenAI 能夠賦能的切入點
- 創意內容生成
- 資料生成、總結、預測
- 任務生成、規劃、執行
- 個性化
- 實時交互
- Access Democratization(不知道怎麼翻,不過意思大概是只知識、技能等信息不再難以取得)
所以,如果要用GenAI來開發產品,最好從以上角度來切入;不然,前GPT時代其實應該就有方法可以完成了。
有了以上切入點,接下來就是要「量測」這個產品在多大程度上適合用GenAI來解決
第二步:設計Prompt
接著,就要為GenAI產品設計prompt,這個部分網上有很多內容,包含角色、口吻、回覆格式、任務範例等等。不過如果要想要在GenAI的回覆內容和其他產品有區別性,那麼還需要考慮到更多細節,不過就是case by case了(這個部分可能書中有更多的解釋)
第三步:搭建可信任框架
使用GenAI,一個是用戶的輸入可能是較為私人的資料、另一個是生成內容注定有一定的隨機性,要如何把控GenAI的生成、讓用戶信任並且使用呢?目前沒有一個絕對的方法,不過「可信任」可以從以下角度來切入、做驗證和改善:
- 隱私性:用戶的對話如果會被模型拿來重新訓練,那麼要如何保證個人的資訊不會被其他用戶透過模型來獲取?
- 安全性:保護chatbot不會被一些駭客手法來破解、獲取資料
- 無害性:確保chatbot不會出現有害的回覆(暴力、色情等)
- 減少偏見:LLM在訓練時,在訓練數據上可能就有偏向某個方向的觀點,那麼該如何確保數據的多樣性?
- 公平性:chatbot是否公平對待所有用戶(種族、社會地位)
- 包容性:chatbot是否能夠優先輸出讓用戶感到受歡迎和理解的內容
- 責任歸屬:chatbot的功能、限制和決策過程是否透明
這個部分其實橫跨基礎通用模型和應用層面,但偏基礎模型一點。
第四步:AI UI/UX
現在也是十分早期、甚至可以說尚未發展的階段,因為目前引領市場的產品就是ChatGPT的對話介面。但是,GenAI的時代,不會是「現有設計的延伸」,而是全新的交互方式和顯示方式
作者們列舉出三種研究方式與方向
- Wizard of Oz testing:用戶與他們「認為」的GenAI介面進行互動,但實際上時由幕後的人類控制
- Diary studies:了解用戶對GenAI互動的感知、認知是如何隨著時間而變化
- Ethical assessments:解決GenAI開發中的偏見、透明度、安全性等挑戰
總結
其實有點混亂,目前對我來說比較有幫助的算是 GenAI 賦能的checklist,能不做的就不要做、聚焦到一個點上面不斷迭代,直到增長的飛輪轉起來。
剩下的應該還是有要看書才能有更深的理解
ChangLog
- 20240416–初稿