examlab .net 用最有效率的方法,考取最有價值的認證
Vol. I
本篇導覽 約 35 分鐘

生成式 AI 概念與術語

6,820 字 · 約 35 分鐘閱讀 ·

AIF-C01 生成式 AI 完整指南:什麼是生成式模型、生成式與判別式的差異、transformer attention 機制、多模態模型、幻覺的成因與緩解方法、成本驅動因素,以及 IP 與隱私注意事項。包含類比說明、考試陷阱與 FAQ。

立即做 20 題練習 → 免費 · 不用註冊 · AIF-C01

生成式 AI 概念是 AWS Certified AI Practitioner(AIF-C01)考試 Domain 2 的核心,而 Domain 2 佔全部分數的 24%。AIF-C01 考試指南明確指出,Task 2.1 要求你「解釋生成式 AI 的基本概念」——這代表你必須能辨認什麼讓一個模型具備生成能力、生成式 AI 與早期判別式模型有何不同,以及生成式 AI 如何產生文字、圖像、音訊、影片、程式碼與合成資料。忽略生成式 AI 概念,就等於放棄了四分之一的分數。本篇涵蓋考試指南所列的每一個生成式 AI 概念,以 AIF-C01 所需的概念深度解析 transformer 架構,詳述幻覺的成因與緩解策略,最後整理考試常出現情境題的成本、隱私與智慧財產注意事項。

AIF-C01 的生成式 AI 概念,具體對應到透過 Amazon Bedrock、Amazon Q、Amazon SageMaker JumpStart 存取的基礎模型,以及在與生成式 AI 方法對比時的任務特化 AWS AI/ML 服務(Amazon Comprehend、Amazon Rekognition、Amazon Textract)。本篇維持在 AIF-C01 的範疇——概念辨識——並標記出每一個 AIP-C01 專業級考試會深入探討建置與部署細節的位置。

什麼是生成式 AI?——從判別式到生成式典範

生成式 AI 是機器學習系統中,以產生新內容為主要輸出的類別,而非分類標籤或數值分數。傳統的判別式 AI 接收輸入後判斷類別:「這封信是垃圾郵件」、「這張圖含有貓」、「這筆交易是詐欺」。生成式 AI 接收輸入後,產生一個與訓練資料同模態的全新成品:一份電子郵件草稿、一張新的貓咪圖片、一筆合成交易記錄。

AIF-C01 考試預期的技術定義:生成式模型學習序列的機率分布(或像素網格、音訊樣本、其他結構化輸出),以便從該分布中取樣出新的、真實可信的範例。文字生成式模型學習的是 P(next token | previous tokens) 這個分布;圖像生成式模型學習的是 P(image | prompt)。當模型「生成」時,它是在從學到的分布中取樣——這也是為何相同的提示在不同次呼叫時可能產生不同輸出。

生成式 AI 對 AIF-C01 的重要性

Domain 2(生成式 AI 基礎)佔 AIF-C01 的 24%。Domain 3(基礎模型應用)佔 28%。兩者合計 52%——而每一道基礎模型題目,都預設你已掌握本篇的生成式 AI 概念。只要能清楚說明什麼讓模型具備生成能力,你就自動解鎖了 Bedrock、提示工程、RAG、微調,以及基礎模型評估等後續題目。

核心主張:生成式 AI 學習序列的機率分布

每一個現代生成式 AI 系統——GPT 系列 LLM、Stable Diffusion、Amazon Titan Image Generator、Amazon Titan Text——最終都歸結為同一個數學概念。模型是訓練語料庫機率分布的壓縮表示。文字生成是從 P(next token | context) 中取樣;圖像生成是從 P(pixel arrangement | prompt) 中取樣;音訊生成是從 P(audio sample | prompt) 中取樣。理解這個概念,就能解鎖考試上的所有下游概念。

生成式 AI 是一類 AI 模型,能藉由學習訓練資料的統計規律,並從學習到的輸出機率分布中取樣,產生新內容(文字、圖像、音訊、影片、程式碼或合成資料)。基礎模型是現代生成式 AI 的主流架構,在 AWS 上主要透過 Amazon Bedrock 存取。 Source ↗

生成式 vs 判別式模型——核心區別

這個區別是 AIF-C01 中最常被測試的生成式 AI 概念。請務必記熟。

判別式模型學習類別之間的邊界。給定輸入 X,預測標籤 Y。數學上,它建模的是 P(Y | X)——給定輸入後標籤的條件機率。AWS 上的例子:Amazon Comprehend 情感分類、Amazon Rekognition 物件偵測、Amazon Fraud Detector 風險評分、SageMaker 訓練的 XGBoost 客戶流失分類器。判別式模型回答的問題是「這個輸入屬於哪個類別?」

生成式模型學習資料本身是如何產生的。它建模聯合分布 P(X, Y) 或直接建模輸入分布 P(X)。因為它從內部理解資料的樣貌,所以能生成看起來像訓練資料的新範例。AWS 上的例子:Amazon Bedrock 上的 Anthropic Claude、Amazon Titan Text、Amazon Bedrock 上的 Stable Diffusion、Amazon Titan Image Generator、Amazon CodeWhisperer(現為 Amazon Q Developer)。生成式模型回答的問題是「一個新的、真實的資料範例長什麼樣?」

實際影響:判別式模型訓練成本較低、分類準確度較高、可解釋性較好——但無法產生新內容。生成式模型訓練成本高得多、帶有幻覺風險、較難評估——但能書寫、繪圖、撰寫程式碼和對話。

生成式 vs 判別式——並排比較

面向 判別式模型 生成式模型
學習內容 P(Y | X)——給定輸入的標籤 P(X) 或 P(X, Y)——資料分布本身
輸出內容 標籤、分數或邊界框 訓練模態中的新內容
訓練成本 低到中(任務特化) 極高(基礎模型規模)
推論成本 低廉、確定性 昂貴、隨機性(Bedrock 按 token 計費)
AWS 範例 Amazon Comprehend、Amazon Rekognition、SageMaker XGBoost Anthropic Claude、Amazon Titan、Stable Diffusion via Bedrock
輸出確定性 相同輸入 → 相同標籤 相同輸入 → 每次執行可能不同(temperature)
幻覺風險 無(標籤集合固定) 有(可能捏造出聽起來自信但錯誤的內容)

每次 AIF-C01 考試至少包含一道需要區分兩者的題目。速記技巧:若輸出是來自預定義集合的固定標籤,模型是判別式;若輸出是任意結構的新內容(文字、圖像、程式碼),模型是生成式。Amazon Comprehend 偵測情感 = 判別式。Amazon Bedrock 搭配 Claude 撰寫摘要 = 生成式。Amazon Rekognition 標記物件 = 判別式。Amazon Titan Image Generator 建立產品照片 = 生成式。 Source ↗

可生成的內容類型——文字、圖像、音訊、影片、程式碼、合成資料

生成式 AI 不只是 LLM。AIF-C01 考試要求你辨認每種輸出模態及其對應的生成式 AI 方法。

  • 文字 — 大型語言模型(LLM),如 Anthropic Claude、Amazon Titan Text、Meta Llama、Mistral、Cohere Command。在 AWS 上透過 Amazon Bedrock 存取。
  • 圖像 — 擴散模型(Diffusion Model),如 Stable Diffusion 和 Amazon Titan Image Generator。在 AWS 上透過 Amazon Bedrock 存取。
  • 音訊/語音 — 神經文字轉語音(Amazon Polly 神經語音)以及用於音樂和音效的生成式音訊模型(AWS Marketplace 上的第三方服務)。
  • 影片 — 新興的影片擴散模型(Amazon Bedrock 上的 Amazon Nova Reel)。支援文字轉影片與圖像轉影片。
  • 程式碼 — 程式碼特化 LLM,如 Amazon Q Developer(前身為 Amazon CodeWhisperer)。可生成、解釋並審查原始碼。
  • 合成資料 — 表格資料與模擬資料,用於補充稀少的訓練集或保護隱私。由特化的 GAN 或 LLM 生成,應用於詐欺偵測、醫療保健及自動駕駛訓練。

在考試中,若題目提到「生成行銷文案」,那是文字;「根據描述產生產品圖」是圖像擴散模型;「為這個函式撰寫 Python 單元測試」是透過 Amazon Q Developer 或 Amazon Bedrock 的程式碼生成。

大型語言模型——預測下一個 Token 的機制

大型語言模型(LLM)是一種生成式 AI 模型,訓練目標是預測文字序列中的下一個 token。Anthropic Claude、Amazon Titan、Meta Llama 等現代聊天機器人的對話、摘要、問答、程式碼撰寫能力,全都源自這個單一目標:給定一串 token 序列,預測下一個 token 的機率分布,然後從中取樣,附加到序列後,再重複。

Token 是 LLM 的運算單位——通常是子詞片段(AIF-C01 常用的經驗法則:一個 token 大約等於 4 個英文字元,或約 0.75 個英文單字)。當你向 Amazon Bedrock 發送提示時,服務會將文字做 tokenization,執行 transformer 的前向傳遞計算詞彙表上的機率分布,使用 temperature、top-p、top-k 選出下一個 token,將其附加到上下文,再次執行前向傳遞。這個迴圈持續直到停止條件觸發——停止序列、最大 token 上限,或模型生成了序列結尾 token。

因為每次 token 生成都是從機率分布中取樣,LLM 在設計上就具有隨機性。相同的提示在不同次呼叫時可能產生不同的回應。Temperature 控制取樣分布的「尖銳程度」:低 temperature 讓取樣偏向最高機率的 token(近乎確定性);高 temperature 使分布趨於平坦(更具創意、更多變化、但幻覺風險也更高)。

LLM 不需任務特化訓練就具備的能力

LLM 的驚人特性在於:一個僅透過對大規模語料庫做 next-token prediction 預訓練的單一模型——不需要任何任務特化訓練,就能執行摘要、分類、翻譯、問答、程式碼生成、實體抽取等各種下游任務。你透過撰寫提示來描述任務,因為訓練語料庫涵蓋了人類有史以來寫下的所有語言任務範例,模型對這些任務都具備隱含的能力。這是提示工程、zero-shot 提示和 few-shot 提示的基礎——詳細內容請見提示工程主題。

擴散模型——透過噪聲去除生成圖像

擴散模型(Diffusion Model)是目前圖像生成的主流生成式 AI 方法。這個概念違反直覺,但在 AIF-C01 上是可考範圍。

訓練:取一張真實圖像,在許多步驟中逐漸加入隨機高斯噪聲,直到圖像變成純噪聲。訓練一個神經網路一次反轉一步——給定稍微更嘈雜的圖像,預測稍微較少噪聲的版本。

推論(生成):從純隨機噪聲開始。多次執行訓練好的去噪網路,以文字提示(透過 embedding)做條件引導。每一步去除一點噪聲,將像素排列推向符合提示的樣子。經過許多步——通常 20 到 100 步——最終輸出是一張連貫的圖像。

在 AWS 上,Stable Diffusion(Stability AI)和 Amazon Titan Image Generator 都是透過 Amazon Bedrock 提供的擴散模型。考試不要求數學深度;它要求你辨認擴散模型是一種有別於 LLM 的圖像生成式 AI 方法,並知道擴散模型通常以文字為條件(提示輸入,圖像輸出)。

GAN——生成器 vs 判別器架構

生成對抗網路(Generative Adversarial Network,GAN)是上一代的圖像生成方法,在最先進的圖像品質上已大幅被擴散模型取代,但仍以生成式 AI 概念的身份出現在 AIF-C01 考試中,你必須能辨認它。

GAN 由兩個神經網路進行零和博弈:

  • 生成器(Generator) — 以隨機噪聲為輸入,產生合成內容(通常是圖像)。
  • 判別器(Discriminator) — 接收內容(真實的或合成的),並將其分類為真或假。

生成器試圖欺騙判別器。判別器試圖揪出生成器。兩者在訓練中不斷進步。訓練收斂後,生成器產生的輸出與真實資料無從分辨。

GAN 是許多合成人臉生成器、風格遷移系統和早期圖像合成產品背後的技術。在 AIF-C01 中,你需要辨認 GAN 是一種生成式 AI 架構、知道它有生成器和判別器,以及知道它是 LLM 和擴散模型之外的生成式方法之一。

LLM = 預測序列中的下一個 token(文字)。Diffusion = 一步一步反轉噪聲(圖像)。GAN = 生成器 vs 判別器的對抗遊戲(舊版圖像、合成資料)。若 AIF-C01 情境描述聊天機器人,預期是 LLM;若描述從文字建立圖像,預期是擴散模型;若描述用於訓練擴增的合成資料,預期是 GAN 或擴散模型。 Source ↗

Transformer 架構的概念層次——Attention Is All You Need

Transformer 是每一個現代 LLM 以及大多數多模態模型背後的神經網路架構。AIF-C01 考試指南將 transformer 架構知識列在概念層次——不需要數學、不需要梯度,只需了解組成模組和它們的功能。

Transformer 為何取代 RNN

在 transformer 出現之前(2017 年以前),序列模型使用遞迴神經網路(RNN)和長短期記憶(LSTM)網路。RNN 一次處理一個 token,攜帶一個隱藏狀態向前傳遞。它有兩個問題:(1)由於資訊在許多時間步後衰減,難以處理長距離依賴;(2)因為每個 token 的計算依賴前一個,無法並行訓練。

Transformer 用一個機制解決了這兩個問題:attention。每個 token 都能直接平行地「看到」序列中的每個其他 token,不受距離限制。這消除了長距離依賴的瓶頸,並在 GPU 和 AWS Trainium 叢集上實現大規模並行訓練。

Attention 機制——概念說明

Attention 回答的問題是「在生成下一個 token 時,我應該聚焦在序列中哪些先前的 token?」對於每個 token,模型計算三個向量:query(這個 token 在尋找什麼)、key(這個 token 提供什麼)和 value(如果被關注,要傳遞的實際內容)。模型透過比較每個 query 與每個 key(通過點積)計算 attention 權重,用 softmax 將其正規化為機率分布,再取 value 的加權總和。結果是每個 token 融入了整個序列相關資訊後的新表示。

對 AIF-C01 而言,不需要推導 attention 公式。你需要認識三件事:(1)attention 是 transformer 的核心創新;(2)attention 讓模型在產生每個輸出時,對輸入的不同部分賦予不同權重;(3)attention 實現了並行計算和長距離依賴的處理。

Self-Attention vs Cross-Attention

  • Self-attention — 每個 token 都關注同一序列中的每個其他 token。這讓 LLM 能理解「The trophy didn't fit in the suitcase because it was too big」中,代名詞「it」指的是「trophy」而非「suitcase」。Self-attention 是 decoder-only 模型(如 GPT、Anthropic Claude、Amazon Titan Text)的主要機制。
  • Cross-attention — 一個序列中的 token 關注另一個序列中的 token。用於翻譯的 encoder-decoder 架構,以及多模態模型(文字 token 關注圖像 patch token)中。

Encoder vs Decoder

2017 年的原始 transformer 論文為翻譯任務提出了 encoder-decoder 架構。現代生成式 AI 已演化為三種 AIF-C01 考試可能提到的形式:

  • Encoder-only — 讀取輸入並產生豐富表示,但不生成新 token 的 transformer。用於分類和 embedding 生成。例子:BERT(歷史性)、Amazon Titan Embeddings。
  • Decoder-only — 從提示開始一次生成一個 token 的 transformer。用於所有現代對話和補全 LLM。例子:Anthropic Claude、Amazon Titan Text、Meta Llama、Mistral。
  • Encoder-decoder — 擁有獨立閱讀和寫作網路的 transformer。用於翻譯和部分摘要模型(T5、BART 系列)。

對 AIF-C01 而言,decoder-only 架構是最常見的生成式 AI 情況。Encoder-only 與 embedding 和分類相關。考試可能要求你將架構類型對應到使用案例,但不會要求你描述層數或 attention head 的設定。

Transformer 是一種基於 self-attention 的神經網路架構,以並行而非逐步的方式處理序列。Transformer 驅動了幾乎所有現代大型語言模型和許多多模態生成式 AI 系統。在 AWS 上,transformer 在 AWS Trainium 和 NVIDIA GPU 實例上訓練,並在 AWS Inferentia 和 NVIDIA GPU 實例上進行推論服務。 Source ↗

訓練資料規模與運算需求

生成式 AI 基礎模型之所以昂貴,是因為它們的訓練規模是判別式模型永遠無法企及的。AIF-C01 考試不要求你記住參數數量,但它確實希望你理解相對量級和基礎設施含義。

規模差距

一個典型的判別式模型可能有 100 萬到 1 億個參數,在 100 GB 的標記資料上訓練,在少數幾個 GPU 上跑幾個小時。像 Anthropic Claude 或 Amazon Titan Text 這樣的基礎模型,則在從公開網路、書籍和程式碼儲存庫爬取的數兆 token 文字上訓練,可能擁有數百億到千億個參數,需要數千個 GPU 或 AWS Trainium 晶片連續運行數週或數月。這是高出四到六個數量級的運算量。

AWS 上的運算基礎設施

  • AWS Trainium — 專為基礎模型訓練設計的 AWS 自製晶片。Trn1 和 Trn2 實例在大型模型預訓練方面提供優於通用 GPU 的性價比。
  • NVIDIA GPU on AWS — P4d、P5 和 P5e 實例搭載 H100 GPU,用於最高要求的訓練工作負載。Amazon SageMaker HyperPod 可協調數千個此類實例進行基礎模型訓練。
  • AWS Inferentia — 專為推論設計的 AWS 自製晶片。Inf1 和 Inf2 實例相較於基於 GPU 的推論,可降低每 token 的推論成本。
  • Amazon Bedrock — 全受管服務,隱藏所有底層基礎設施。你看不到 Trainium、Inferentia 或 GPU;你只需呼叫模型 API。

AIF-C01 的題目規律:若題目提到「以最低成本訓練基礎模型」,答題方向是 AWS Trainium;若提到「以最低成本提供推論服務」,方向是 AWS Inferentia;若提到「無需管理基礎設施、呼叫 API」,答案是 Amazon Bedrock。

規模為何重要

訓練資料和運算的規模,是產生**湧現能力(emergent capabilities)**的原因——這些模型行為在較小版本中不存在,隨著規模增加才突然出現。湧現能力包括思維鏈推理、從上下文範例中 few-shot 學習任務、程式碼生成和跨語言遷移。AIF-C01 考試將湧現能力定義為基礎模型(大型、預訓練、通用型)的特性,較小的任務特化模型不具備這些能力。

湧現能力——規模解鎖了什麼

湧現能力是只有當訓練資料和參數數量超越某個門檻時,才會在生成式 AI 中出現的能力。AIF-C01 考試指南將湧現能力視為關鍵的生成式 AI 概念,因為它從根本上證明了基礎模型存在的理由——如果小模型能做到大模型能做的一切,就沒有理由花費數百萬在基礎模型訓練上了。

考試可能提到的具體湧現能力:

  • Few-shot in-context learning — 僅憑放在提示中的少數範例就能解決新任務,不需任何權重更新。這是 few-shot 提示的基礎。
  • 思維鏈推理(Chain-of-Thought Reasoning) — 在以「一步一步思考」提示後,能產生多步邏輯論證。較小的模型無法可靠地做到這點。
  • 指令遵循(Instruction Following) — 能理解自然語言指令,如「用三個要點摘要這段文字」,即便從未針對該特定指令進行訓練。
  • 跨語言遷移(Cross-Lingual Transfer) — 能在訓練資料中代表性不足的語言上執行任務,因為共享的概念結構可跨語言遷移。
  • 程式碼生成(Code Generation) — 能從對行為的自然語言描述中,撰寫可執行的程式碼。

湧現能力是 AIF-C01 考試將基礎模型定義為「通用可適應模型」而非「每個任務一個模型」的原因——規模產生了一個單一模型,能透過提示處理許多任務,這也是 Amazon Bedrock 的商業案例。

多模態模型——接受與產生多種輸入類型

多模態模型能處理或產生不止一種類型的內容。AIF-C01 考試要求你辨認多模態的概念,以及對 AWS 上多模態基礎模型的認知。

多模態行為的類型

  • 視覺語言輸入 — 模型接受文字與圖像,輸出文字。例如:上傳一張產品照片並附上提示「為電商列表描述這件商品」,模型便撰寫描述。Amazon Bedrock 上的 Anthropic Claude 支援視覺輸入。
  • 文字轉圖像 — 純文字提示產生圖像。例如:Amazon Bedrock 上的 Stable Diffusion 和 Amazon Titan Image Generator。
  • 文字轉影片 — 文字提示產生影片。例如:Amazon Bedrock 上的 Amazon Nova Reel。
  • 語音轉文字轉語音管線 — Amazon Transcribe 將語音轉為文字,Amazon Bedrock 上的基礎模型處理文字,Amazon Polly 將回應轉回語音。這不是單一的多模態模型,而是考試可能描述的多模態管線。

多模態 vs 單模態——考試應用

AIF-C01 考試將測試你是否能辨識多模態情境。情境中的關鍵字:「圖像加文字輸入」、「分析並描述圖表」、「從故事板生成影片」、「為圖像加上說明文字」。所有這些都需要多模態能力。單一任務特化服務——Amazon Rekognition 做圖像分析、Amazon Comprehend 做文字——無法結合模態。只有多模態基礎模型才能做到。

幻覺——成因與緩解

幻覺是 AIF-C01 Domain 2 中最常被測試的生成式 AI 概念。你必須能定義它、解釋它為何發生,並列舉 AWS 提供的緩解策略。

什麼是幻覺

幻覺是指生成式 AI 模型產生事實錯誤、沒有任何來源支撐或憑空捏造的內容——但聽起來卻自信且合理。例子:LLM 引用一篇不存在的論文、捏造一個不存在的人物的生平、生成不正確的法律先例,或產生呼叫不存在 API 的程式碼。

幻覺不是特定模型的錯誤;它是生成式 AI 的結構性特性。因為 LLM 被訓練成產生聽起來合理的 token 序列——而非驗證事實準確性——讓它們能撰寫流暢散文的相同機制,也讓它們能撰寫流暢的謊言。

幻覺的成因——五大原因

  1. 訓練資料缺口 — 模型從未接觸某個主題的資訊,於是從鄰近概念中插值,產生聽起來正確但實際錯誤的內容。
  2. 訓練資料過時 — 訓練語料庫有知識截止日期。截止日期後的事件屬於未知,若被問及,模型可能捏造答案。
  3. Tokenization 與取樣噪聲 — 模型從機率分布中取樣。低機率但聽起來自信的 token,特別是在高 temperature 下,可能產生自信卻錯誤的答案。
  4. 過度優化流暢度 — 模型被優化成聽起來自然,而非驗證事實。流暢度和準確度是解耦的目標。
  5. 提示模糊 — 不明確或規格不足的提示使模型填補空白,往往產生捏造的細節。

AWS 上的幻覺緩解策略

AIF-C01 考試將測試緩解策略——以下五項是標準答案:

  • Retrieval-Augmented Generation(RAG) — 在查詢時取得權威來源文件,注入到提示中,並指示模型只根據取回的上下文回答。在 AWS 上透過 Amazon Bedrock Knowledge Bases 搭配向量資料庫(Amazon OpenSearch Service、Amazon Aurora PostgreSQL with pgvector 或 Amazon Neptune Analytics)實作。RAG 是 AWS 上主要的幻覺緩解模式。
  • 透過 Amazon Bedrock Guardrails 進行接地性檢查(Grounding Check) — 一種自動化檢查,將生成的回應與參考來源比對,並標記或封鎖未以該來源為根據的答案。
  • 降低 temperature — 將 temperature 降低至 0 可使取樣偏向最高機率(通常較安全)的 token,以犧牲多樣性換取較少的創造性幻覺。
  • 提示工程加入明確接地指令 — 「僅根據提供的上下文回答。若上下文不包含答案,請回答『我不知道』。」這不能完全消除幻覺,但可明顯減少。
  • 透過 Amazon A2I(Augmented AI)進行人工審核 — 將低信心或高風險的生成輸出,在交付前轉給人工審核者。

考生常將幻覺與一般模型不準確混淆。一個誤判垃圾郵件的判別式模型不是在幻覺——它只是答錯了。幻覺特指生成式 AI 捏造聽起來合理但在訓練資料或取回的上下文中毫無根據的內容。若考題提到「模型自信地產生了一個不存在的來源」或「模型捏造了一個事實」,那就是幻覺。若考題詢問幻覺緩解策略,最佳答案是 RAG、Bedrock Guardrails 接地性檢查、降低 temperature,以及明確的接地提示。 Source ↗

生成式 AI 工作負載的成本驅動因素

生成式 AI 工作負載的成本結構與傳統 ML 工作負載截然不同。AIF-C01 考試將測試你是否能識別成本驅動因素,以及 AWS 服務如何對生成式 AI 存取定價。

訓練成本驅動因素

  • 參數數量 — 參數越多,每個訓練步驟的運算量越大。700 億參數的模型訓練成本約比 70 億參數的模型高出一個數量級。
  • 訓練資料量 — 訓練期間看到的 token 越多,需要的前向傳遞和反向傳遞就越多。現代基礎模型在數兆 token 上訓練。
  • 運算硬體選擇 — AWS Trainium 在大型模型訓練方面比通用 GPU 提供更好的性價比。對於基礎模型訓練任務,從 GPU 切換到 Trainium 可大幅降低成本。
  • 訓練持續時間 — 在更多資料上訓練更大的模型,需要數週到數月的連續叢集時間。容錯、checkpoint 和恢復(透過 Amazon SageMaker HyperPod)都影響總成本。

對 AIF-C01 而言,關鍵洞察是從頭訓練基礎模型對大多數客戶來說費用高得令人望而卻步。這就是 Amazon Bedrock 存在的原因——你付費透過 API 使用預訓練模型,而不是訓練自己的模型。在較小的領域語料庫上對現有基礎模型進行微調,比從頭預訓練便宜得多,也是當提示工程和 RAG 不夠用時最具成本效益的客製化路徑。

推論成本驅動因素

  • 輸入 token — 你發送給模型的 token 數量。長的 context window 和長的 RAG 取回上下文都會推高輸入 token 成本。
  • 輸出 token — 模型生成的 token 數量。通常比輸入 token 的每 token 定價更高,因為輸出生成是循序進行的(一次一個 token)。
  • 模型選擇 — 較大的模型(Anthropic Claude Opus、較大的 Amazon Titan 版本)每 token 成本高於較小的模型(Claude Haiku、較小的 Titan 版本)。AIF-C01 考試可能將此定義為根據任務「選擇適當規模」的模型。
  • Provisioned Throughput vs On-Demand — Amazon Bedrock 提供 on-demand 定價(按 token 付費,無需承諾)和 provisioned throughput(為可預測的高流量工作負載保留容量)。On-demand 對突發性工作負載較便宜;provisioned throughput 對持續的高使用量較便宜。
  • Embedding 生成 — RAG 管線必須對每個查詢和每個來源資料區塊做 embedding。Amazon Bedrock 上的 Amazon Titan Embeddings 和 Cohere Embed 按輸入 token 收取 embedding 生成費用。在數百萬個區塊的規模下,這會成為真實的費用項目。
  • 向量資料庫儲存與查詢成本 — RAG 取回側的系統有其自身的成本:Amazon OpenSearch Service 的節點工時、Amazon Aurora 的實例成本,或 Amazon Bedrock Knowledge Bases 的受管基礎設施成本。

成本優化策略

  • 選擇符合品質要求的最小模型 — 先用 Claude Haiku,再考慮 Claude Sonnet,最後才是 Claude Opus。
  • 快取頻繁的提示 — Amazon Bedrock 支援提示快取,避免重複處理相同的上下文。
  • 積極截短上下文 — 過長的 RAG 上下文會推高輸入 token 成本。進行分塊、重新排序和截斷。
  • 對非即時工作負載使用批次推論 — Amazon Bedrock 批次推論比即時推論提供折扣。
  • 對持續高流量的生產流量考慮 provisioned throughput

當 AIF-C01 情境提到成本時,答題方向通常是:選擇適當規模的模型(若品質足夠則選較小模型)、縮短 context window、對非互動工作負載優先選批次而非即時,並對流量不固定時使用 Amazon Bedrock on-demand、對穩定生產流量使用 provisioned throughput。對於訓練而言,成本最優方向是 AWS Trainium 而非 GPU。 Source ↗

隱私與智慧財產注意事項

AIF-C01 考試將隱私和 IP 注意事項視為 Domain 4(負責任 AI)和 Domain 5(安全、合規、治理)下的第一級生成式 AI 概念。幾乎每次考試都會出現以下三個痛點。

訓練資料來源

基礎模型在從公開網路、授權資料集和合作夥伴資料爬取的大規模語料庫上進行預訓練。該語料庫可能包含受版權保護的文字、程式碼、圖像,以及個人識別資訊(PII)。下游影響:

  • 著作權風險 — 若模型逐字重現訓練資料內容,可能侵犯著作權。生成式 AI 廠商越來越多地對輸出提供賠償保障,但客戶仍對最終使用負有責任。
  • 品牌與商標風險 — 圖像生成式模型可能產生類似受商標保護角色或標誌的輸出。
  • PII 記憶化 — LLM 可能記住訓練資料中的稀有字串,包括姓名、電子郵件地址和信用卡號碼。提示抽取攻擊有時能取回這些資訊。

Amazon Bedrock 上的客戶資料隱私

AIF-C01 考試的核心事實:傳送到 Amazon Bedrock 的客戶資料不會用於訓練底層基礎模型。客戶提示和補全在傳輸中和靜止時均已加密,不會與模型提供者共享以進行再訓練,並依服務記錄的政策保存。這是考試最重要的隱私聲明。

Amazon Bedrock 支援:

  • VPC endpoints — 無需穿越公開網路的私有連線。
  • KMS 加密 — 客戶自管的 KMS 金鑰,用於靜止時的客戶資料加密(在適用情況下)。
  • 無跨客戶資料洩漏 — 客戶的提示不會暴露給任何其他客戶或模型提供者。
  • Guardrails — Amazon Bedrock Guardrails 可偵測並遮蔽輸入和輸出中的 PII,支援 GDPR 和 HIPAA 類型的合規要求。

生成輸出的智慧財產

基礎模型產生的內容的所有權,是一個仍在發展中的法律領域。AIF-C01 情境可能將此定義為治理問題:「Amazon Bedrock 生成的行銷文案,著作權屬於誰?」符合考試指南的答案:客戶通常被授予透過 Amazon Bedrock 生成的輸出的使用權,但更廣泛的著作權法仍在演化中,在未經法律審查前,客戶不應假設輸出具有著作權保護或不受第三方主張影響。

AWS 上的隱私緩解措施

  • Amazon Bedrock Guardrails — PII 過濾器 — 偵測並遮蔽提示和補全中的 PII(姓名、社會安全號碼、電子郵件、電話號碼)。
  • Amazon Macie — 在資料用於微調模型之前,掃描 Amazon S3 訓練資料集以查找 PII。
  • Amazon Comprehend PII Detection — 用於自訂管線的獨立 PII 偵測 API。
  • VPC endpoints 和 KMS — 應用於生成式 AI 的標準 AWS 安全控制。
  • Model Cards 和 AI Service Cards — AWS 發布的透明度文件,描述受管模型的預期用途、已知限制和訓練資料來源。

預期至少有一道情境題詢問客戶資料、訓練和 Amazon Bedrock。標準答案:Amazon Bedrock 不使用客戶提示或補全來訓練基礎模型。對於訓練資料 PII,標準答案涉及 Amazon Macie(S3 掃描)和 Amazon Bedrock Guardrails PII 過濾器(推論時)。對於著作權顧慮,方向是訓練資料來源和輸出使用權是客戶必須在自身政策中記錄的治理層面問題。 Source ↗

能力與限制概覽

AIF-C01 考試要求平衡的視角——生成式 AI 擅長什麼,以及它在哪裡失敗。

能力

  • 跨語言、領域和風格的流暢文字生成。
  • 從長篇文件進行摘要和抽取(在 context window 限制內)。
  • 達到開發者生產力水準的程式碼生成與審查。
  • 從自然語言描述生成圖像和影片。
  • 對話介面和對內部資料的自然語言問答(透過 RAG)。
  • 用於隱私保護分析的合成資料生成。
  • 透過 Amazon Bedrock Agents 的多步驟代理工作流程。

限制

  • 幻覺 — 如上所述;考試最常測試的限制。
  • 知識截止日期 — 模型的訓練資料有固定的截止日期;在此日期後的任何事件都是未知的,除非透過 RAG 取回。
  • Context window 限制 — 單一提示中可放入的 token 數量有硬性上限。長文件必須分塊、取回或摘要。
  • 規模化成本 — 按 token 計費在高流量時迅速累積。對於固定輸出任務,判別式模型仍然更便宜。
  • 非確定性 — 每次執行的輸出都不同。不適合需要確定性輸出的工作流程,除非做了提示工程並使用低 temperature。
  • 偏見與公平性 — 訓練資料偏見在基礎模型規模下被放大。高風險部署需要人工審查和偏見稽核。
  • 可解釋性 — 基礎模型是黑盒子。SageMaker Clarify 等可解釋性工具適用於判別式模型;LLM 的可解釋性是活躍的研究領域。
  • 安全攻擊面 — 提示注入(Prompt Injection)、越獄(Jailbreaking)和資料外洩是生成式 AI 特有的新威脅類別。

常見考試陷阱——Domain 2 生成式 AI 概念

  • 生成式 AI 不一定是 LLM — 擴散模型、GAN 和多模態系統也是生成式 AI。若情境描述圖像生成,不要回答 LLM。
  • 生成式 vs 判別式不總是顯而易見 — Amazon Rekognition 標記物件是判別式,即使它處理的是圖像。Amazon Titan Image Generator 建立圖像是生成式。
  • Transformer 架構適用於 encoder-only、decoder-only 和 encoder-decoder 模型 — 不僅限於 LLM。Embedding 模型(Amazon Titan Embeddings)是 encoder-only transformer。
  • Attention ≠ 監督式標記 — attention 是網路內部的一種計算,對輸入的不同部分賦予權重。它不是一個標記步驟。
  • 幻覺 ≠ 一般準確度錯誤 — 幻覺是生成式特有的失敗模式,與分類錯誤不同。
  • Temperature ≠ 準確度控制 — 降低 temperature 只是減少變異,不能提升事實準確度。低 temperature 的模型仍然可能幻覺。
  • 基礎模型 ≠ AGI — 基礎模型是非常強大的通用領域 ML 模型。它們不是通用智慧。
  • Amazon Bedrock 不使用客戶資料訓練基礎模型 — 請記住這個陳述。
  • AWS Trainium 用於訓練,AWS Inferentia 用於推論 — 不要混淆兩者。Trainium 用於大型模型的預訓練和微調;Inferentia 用於低成本推論服務。
  • 多模態 ≠ 使用多個 AI 服務 — 將 Amazon Rekognition 串接到 Amazon Comprehend 的管線是多服務,但在模型意義上不是多模態。多模態指的是單一模型接受多種輸入模態。

AIF-C01 常見陷阱:情境描述生成逼真的產品圖像,並詢問適用哪種架構。考生有時回答 LLM,因為 LLM 是最知名的生成式 AI 術語。正確答案是擴散模型(或歷史上的 GAN)。LLM 生成文字 token,不是像素。若情境提到圖像,優先考慮擴散模型,其次是 GAN;若提到合成表格資料,考慮 GAN;若提到文字、程式碼或對話,考慮 LLM。 Source ↗

區別說明——AIF-C01 概念辨識 vs AIP-C01 建置深度

AWS 認證路徑有兩個名稱相近的 AI 認證,AIF-C01 考試指南明確界定了 AIF-C01「不涵蓋」的範圍。誤解範圍是造成過度準備和考試時混亂的常見原因。

  • AIF-C01(AI 從業者,入門級) — 測試概念辨識。你必須辨認生成式 AI 是什麼、基礎模型是什麼、LLM 做什麼、幻覺的含義,以及哪個 AWS 服務適用於哪種使用案例。你不需要撰寫程式碼、調整超參數或設計端對端系統。
  • AIP-C01(AI/ML 工程師助理或專業級) — 測試建置深度。你必須設定 Amazon Bedrock Knowledge Bases、調整取回參數、實作評估管線、以 provisioned throughput 優化推論成本,以及對代理工作流程進行除錯。

AIF-C01 範圍的具體例子:「LLM 背後的架構是什麼?」(Transformer)「幻覺的原因是什麼?」(訓練缺口、資料過時、取樣)「哪個 AWS 服務無需基礎設施即可存取基礎模型?」(Amazon Bedrock)「什麼可緩解幻覺?」(RAG、Guardrails 接地性檢查、降低 temperature)

AIF-C01 不考(但屬於 AIP-C01 範疇):為 Knowledge Base 設定特定的分塊策略、在向量資料庫中選擇 HNSW 與 IVF 索引、在查詢規劃器層調整 top_k 取回、建構 LangGraph 代理迴圈。若考試題目似乎需要實作細節,請重新閱讀——AIF-C01 題目停留在概念層次。

生成式 AI 價值鏈——從基礎模型到商業成果

AIF-C01 考試將生成式 AI 定義為一個分層的價值鏈:

  1. 運算基礎設施 — AWS Trainium、AWS Inferentia、GPU 實例。客戶很少直接接觸這一層。
  2. 基礎模型 — Anthropic Claude、Amazon Titan、Meta Llama、Mistral、Stability AI、Cohere、AI21 Labs。由廠商以龐大成本預訓練。
  3. 基礎模型存取平台 — Amazon Bedrock(存取上述所有基礎模型的單一 API)、Amazon SageMaker JumpStart(可客製化並部署到你自己端點的基礎模型)。
  4. 應用程式構建模組 — Amazon Bedrock Knowledge Bases(受管 RAG)、Amazon Bedrock Agents(多步驟協調)、Amazon Bedrock Guardrails(內容安全)、提示管理、模型評估。
  5. 專用生成式 AI 助理 — Amazon Q Business(企業助理)、Amazon Q Developer(程式碼撰寫助理)、Amazon Q in QuickSight(商業智慧助理)、Amazon Q in Connect(客服中心助理)。
  6. 商業成果 — 客服自動化、內容行銷、程式碼加速、知識管理、新藥探索、創意製作。

AIF-C01 考試將測試你為使用案例選擇正確層次的能力。「業務使用者希望有一個能查詢內部 SharePoint 和 S3 的聊天助理」——第 5 層,Amazon Q Business。「開發者需要 API 存取 Anthropic Claude 以開發自訂應用程式」——第 3 層,Amazon Bedrock。「ML 團隊希望在醫療記錄上微調 Llama 並部署到私有端點」——第 3 層的替代方案,Amazon SageMaker JumpStart。

白話文解釋 Generative AI Concepts

生成式 AI 概念很快就會變得抽象。以下三個生活類比幾乎涵蓋每一個考試情境。

類比一——開書考試 vs 閉書考試

判別式 AI 是一場閉書選擇題考試。題目固定,答案是四個選項之一,模型的任務是選出正確答案。沒有創意可言。Amazon Comprehend 的情感分類就是閉書考試——四個答案分別是正面、負面、中性、混合,模型選其一。

生成式 AI 是一場開書申論題考試。題目是「寫 500 字談論 X」,模型必須從頭組織答案,運用它讀過的所有內容。沒有單一正確答案,輸出篇幅長且有結構,兩個學生面對同一道題目會寫出不同的文章。Amazon Bedrock 上的 Anthropic Claude 每次回答問題,都像是在參加開書申論考。如果學生引用了一本不存在的書中的話——那就是幻覺。解法是給學生一本真正的書作為考試時的參考資料——那就是 retrieval-augmented generation(RAG)。

類比二——主廚與機率食譜本

想像一位廚過數百萬道菜的主廚,腦海中建立了一本食譜——不是僵硬的食譜清單,而是一種學到的直覺,說著「當我有這些食材時,下一步大概是翻炒,有些機率是烤,小機率是水煮」。這種直覺就是下一步的機率分布。生成式模型正是這位主廚。它不是逐字儲存每道訓練資料中的菜;它儲存的是「接下來是什麼」的分布。

當你用「告訴我一個關於龍的故事」來提示 LLM,模型不是在資料庫中查詢故事。它在檢查內部分布——「給定這個開頭上下文,下一個最可能的字是什麼?」——然後取樣一個。再重複。有時主廚會發明一道菜,味道很好,但用了廚房裡根本不存在的食材——那就是幻覺。低 temperature = 主廚保守行事,總是使用最可預期的食材。高 temperature = 主廚放飛自我,有時出色,有時用了捏造的食材。

擴散模型是另一種主廚。這位主廚不是一個字一個字地寫食譜,而是從一盤隨機散落的食材開始,然後一遍一遍地清理這盤菜,直到它看起來像最終成品。每次清理都以「根據提示,這道菜應該長什麼樣子」為引導。50 次清理之後,盤中呈現的是一道完成的菜。這就是 Amazon Titan Image Generator 這類文字轉圖像模型的運作方式。

類比三——塔台與航管員

Transformer 的 attention 機制就像一座交通管制塔台,每輛車(token)都能同時看見棋盤上的每輛其他車,並決定要受各自影響多少。在舊的 RNN 架構中,車輛只能看到正前方的車,遠處車輛的資訊迅速消散——長距離規劃因此不可能。Attention 機制將每輛車放進同一個雷達螢幕。當導航 AI 規劃下一步行動時,它查詢雷達(「哪些其他車輛與我變換車道有關?」),賦予它們權重,然後做出決定。

Self-attention 是管制員看著同方向行駛的車輛(同一個序列)。Cross-attention 是管制員比較兩條不同車道上的車輛——例如,多模態模型中文字 token 關注圖像 token。Encoder-only transformer 是只讀取目前交通狀況的管制員。Decoder-only transformer 是同時也一次發出一輛車行動指令的管制員。Encoder-decoder transformer 是兩位管制員的接力——一位讀取,另一位發令。

AIF-C01 考試運用這個心智圖像,不要求公式。若題目提到「attention」,就想「每個 token 同時平行地看到每個其他 token」。這是核心洞察。

FAQ——生成式 AI 概念常見問題

1. 什麼讓一個模型是「生成式」而非「判別式」?

生成式模型學習序列(或圖像、音訊等)的機率分布,以便取樣出看起來像訓練資料的新範例。它建模 P(X) 或 P(X, Y)。判別式模型只學習類別之間的邊界——它建模 P(Y | X),給定輸入輸出標籤。Amazon Comprehend 分類情感是判別式;Amazon Bedrock 搭配 Anthropic Claude 撰寫摘要是生成式。考試速記:若輸出是來自已知集合的固定標籤,是判別式;若輸出是任意結構的新內容,是生成式。

2. 用白話文解釋 transformer 的 attention 機制?

Attention 是 transformer 內部的一種計算,讓序列中的每個 token 都能平行地看到每個其他 token,並決定在產生其輸出表示時,對每個 token 給予多少權重。Self-attention 在同一序列內套用(每個輸入 token 關注每個其他輸入 token)。Cross-attention 跨序列套用(多模態模型中,文字 token 關注圖像 token)。Attention 是讓現代 LLM 成為可能的核心創新,因為它處理了長距離依賴,並在 AWS Trainium 和 GPU 叢集上實現了大規模並行訓練。

3. 生成式 AI 的幻覺是什麼原因造成的,如何緩解?

幻覺發生的原因是 LLM 被訓練成產生聽起來合理的 token 序列,而非驗證事實。成因:訓練資料缺口、知識截止日期、取樣噪聲和提示模糊。AWS 上的主要緩解策略:(1)使用 Amazon Bedrock Knowledge Bases 進行 retrieval-augmented generation(RAG),將權威來源文件注入提示;(2)Amazon Bedrock Guardrails 接地性檢查,針對參考來源驗證回應;(3)降低 temperature,使取樣偏向較安全的高機率 token;(4)明確的接地提示,如「僅根據提供的上下文回答」;(5)對高風險輸出使用 Amazon A2I 人工審核迴圈。

4. 什麼是多模態模型,什麼時候需要它?

多模態模型是一個單一基礎模型,能處理或產生不止一種內容類型——例如,接受文字和圖像作為輸入,或從文字提示生成影片。當任務無法被拆分為獨立的單模態步驟時,你需要多模態模型:從圖像描述圖表、從文字生成圖像,或為影片加上說明。在 Amazon Bedrock 上,Anthropic Claude 支援視覺輸入(圖像 + 文字),Amazon Titan Image Generator 做文字轉圖像,Amazon Nova Reel 做文字轉影片。將 Amazon Rekognition 串接到 Amazon Comprehend 的管線是多服務,但在模型架構意義上不是多模態。

5. 基礎模型為什麼訓練成本那麼高,這對考試有什麼影響?

基礎模型在數兆 token 上訓練,擁有數百億到千億個參數,需要數千個 GPU 或 AWS Trainium 晶片運行數週或數月。這比典型的判別式模型高出約四到六個數量級的運算量。對 AIF-C01 而言,這很重要,因為它解釋了:(a)Amazon Bedrock 為何存在——你租用預訓練模型的存取權,而不是自己訓練;(b)微調比預訓練便宜得多,是大多數客戶現實可行的客製化路徑;(c)AWS Trainium 是成本最優的訓練硬體,AWS Inferentia 是成本最優的推論硬體。若與成本相關的情境題詢問訓練,答題方向是 Trainium;若詢問推論,是 Inferentia 或 Amazon Bedrock on-demand。

6. Amazon Bedrock 會使用我的提示和資料訓練基礎模型嗎?

不會。這是 AIF-C01 中最重要的隱私事實之一。傳送到 Amazon Bedrock 的客戶提示和補全不會用於訓練底層基礎模型。資料在傳輸中和靜止時均已加密,可透過 VPC endpoints 路由以避免公開網路,也不會與模型提供者共享以進行再訓練。如需額外的 PII 保護,Amazon Bedrock Guardrails 可偵測並遮蔽輸入和輸出中的敏感資訊,Amazon Macie 可在微調前預先掃描 Amazon S3 訓練資料集中的 PII。

7. 基礎模型、LLM 和生成式 AI 的差異是什麼?

生成式 AI 是最廣泛的術語——任何產生新內容(文字、圖像、音訊、影片、程式碼、合成資料)的 ML 系統。基礎模型是生成式 AI 的一種特定類型:大型、預訓練、通用型模型,可透過提示、微調或 RAG 適應許多下游任務。LLM(大型語言模型)是基礎模型中專門用於文字的子集——用於文字的基礎模型。在 AWS 上,Anthropic Claude 和 Amazon Titan Text 是 LLM;Amazon Titan Image Generator 是基礎模型但不是 LLM(它生成圖像);兩者都是生成式 AI 的例子。

8. 湧現能力是真實存在的嗎?AIF-C01 會考嗎?

是的,兩個答案都是肯定的。湧現能力是只有當規模超過某個門檻時,才會在基礎模型中出現的能力——few-shot in-context learning、思維鏈推理、指令遵循、跨語言遷移。較小的模型無法可靠地做到這些。AIF-C01 將湧現能力定義為基礎模型的正當性理由:如果規模不能解鎖新能力,就沒有人會花費數百萬在預訓練上。考試將此作為基礎模型的一個特性來測試,而非嚴格的基準測試——你需要辨認這個術語,並將其與「大型、預訓練、通用型模型」相關聯。

延伸閱讀

摘要

生成式 AI 概念是 AIF-C01 Domain 2(24%)的基礎,也隱含在 Domain 3(28%)中——合計超過考試的一半。生成式 AI 模型學習序列(或圖像、音訊等)的機率分布,並從中取樣出新內容;判別式模型只學習類別之間的邊界。現代生成式 AI 建構在 transformer 架構之上,其 attention 機制讓每個 token 能平行關注其他所有 token,實現了長距離依賴處理,並在 AWS Trainium 和 GPU 叢集上進行大規模並行訓練。規模產生了湧現能力——few-shot learning、思維鏈推理、指令遵循——這些是小型模型所不具備的。生成式 AI 涵蓋文字(LLM)、圖像(擴散模型)、音訊、影片、程式碼和合成資料(GAN 或擴散模型),多模態基礎模型在單一網路中結合多種模態。主要的生成式 AI 失敗模式是幻覺:流暢但捏造的內容,在 AWS 上透過使用 Amazon Bedrock Knowledge Bases 的 retrieval-augmented generation、Amazon Bedrock Guardrails 接地性檢查、降低 temperature、明確的接地提示,以及 Amazon A2I 人工審核來緩解。生成式 AI 的成本驅動因素是訓練運算(在 AWS Trainium 上成本最低)、推論 token(選擇適當規模的模型、盡可能使用批次、對穩定工作負載考慮 provisioned throughput)和取回基礎設施。隱私和 IP 注意事項集中在訓練資料來源、客戶資料隔離(Amazon Bedrock 不使用客戶提示訓練基礎模型)、以 Amazon Macie 和 Amazon Bedrock Guardrails 處理 PII,以及輸出使用權。對 AIF-C01 而言,保持在概念辨識層次——不需數學公式的 transformer 架構、不需推導梯度的 attention、以服務名稱表達的幻覺緩解策略——將建置深度細節留給 AIP-C01。

官方資料來源

更多 AIF-C01 主題