如何在擁有AI助手的時代評估人的能力?

Author
· 1 min read

image

近日遇到管理上的大挑戰,魔王等級的PIP,也就是績效改善計畫,這件事情必須拿捏得當,畢竟這對於公司對於員工一旦處理不好,有可能是雙雙受損的狀況。

閒聊一下這次想聊的主題:如何在有AI工具無所不在的時代,有效地給予指導,並從中可以得到預期程度的回饋與進步還有會所遇到的困難。

在探究這個主題前先講一下主題背後的問題:當組員(Team Member)都有AI協助後,那我們究竟該怎麼衡量這位組員的實力?

過去:答案是稀缺的

過去所謂的指導會特別討論所謂的框架或規格亦更深入的是逐步的執行方式。過去為什麼這麼做?因為我們要讓被指導者找答案。往往在評估與指導過程,會逐步收斂,甚至一開始就給予一套完整框架要組員去填充答案。

現今:答案隨手可得

如今,答案已經不再是問題了,因為AI在填充與產出答案應該是現今最容易的事情。而這個答案的好壞就是因專案因主管因需求而異。

AI就像放大器

無論是Coding或是Studying等等,組員的產出基本上一定有AI成分。而我在定位這個部分基本上都歸納為都是這位組員的產出。因為,過去會Google但不會說是Google加分,那為什麼現在LLM的產出我們必須要強調是AI寫的?

LLM的提示工程(Prompt Engineering),甚至最近在討論的上下文(Context Engineering)。這些都會來至於輸入的人,思考與架構。而且我相信某種程度上是非常相依在人本身的經驗。

AI就像放大器。

我完全認同這個觀點,放大器是當你好就會更好,同理,當你壞,那就是壞到底了,把整個缺點整組端出來在陽光下,卻還不得而知。

挑戰

那麼我們就回到我們的挑戰點上了,當AI這麼輕易就產出答案後,我們如何在第零步抓到關鍵給予指導,讓人跟AI產生答案過程中可以受阻,可以反思?

這答案就是在上面的過程:改變原本給予框架的作法,我們只要給予指導者題目或者目標,並且定義好DoD(Define of Done)。然後甚麼也不用多說,接下來的時代是要訓練大家思考框架,與AI一起拼湊答案。

當提示詞不足,上下文不完整時,AI給出來的答案通常非常空泛。只有在更清楚上下文並給予精準提示,才足以激發語言模型的專注並把預測放在對的向量空間中。

我們出完題目後,要檢核的就是:組員的思考方向正不正確,邏輯清不清楚,選定走往目標的路是否是最佳方法,一共有幾條,每條差異為何。我們是否能被說服,是否這套框架是預期本來要給的,被組員跟他的AI助手找到了。

沒錯,這就是推理模型(Reasoning Model)要解決的問題,上面講的AI也有能力做,但那是AI,人還是不會。

人的價值

改變,就順著AI的毛摸,AI要得我們不給,讓人跟AI產生GAP,讓AI的GAP對人留下幻覺的印象,而幻覺,可能不是模型能力,更可能是人的輸出能力導致的。這GAP就是未來的時代人還有的價值。

  • 能否定義問題
  • 能否建立框架,提問,反思
  • 能否在答案堆中找到我們要的

繼續進步。