Post

📖 Prompt-enhanced Network for Hateful Meme Classification

📖 Prompt-enhanced Network for Hateful Meme Classification

Cite as ArXiv:2411.07527

Submitted on 2025/05

REF: https://arxiv.org/abs/2411.07527

Introduction (Hateful meme classification)

Stage 1: 早期的多模態融合 (Alignment and Fusion)

迷因包含「圖片」和「文字」兩種模態,所以模型必須同時理解這兩者。

Paper: Hateful Meme Challenge, Vilio

Stage 2: 導入外部知識 (External Knowledge)

光靠圖片和文字還不夠。

很多仇恨言論是隱晦的,需要複雜的推理和背景知識才能看懂 。

Paper: DisMultiHate, MultiModal Learning

Stage 3: 模態轉換 (Modality Transformation)

不直接處理圖片,而是將多模態任務轉變為純文字任務 。

當時的多模態模型(如 VilBERT、VisualBERT )雖然能同時處理圖文,但它們在訓練時沒有被賦予這些龐大且隱晦的文化、宗教、社會背景知識。

Paper: PromptHate (2022), Pro-Cap (2023)

Stage 3: Modality Transformation Paper

PromptHate: Prompting for Multimodal Hateful Meme Classification

Rui Cao, Roy Ka-Wei Lee, Wen-Haw Chong, Jing Jiang

EMNLP 2022

像 RoBERTa 這樣的Pretrained Language Models (PLM),在預訓練過程中

閱讀了巨量的網路文本,其內部一定儲存了大量「隱含的、非結構化的知識」。

用ClipCap的方法對圖像做Image Captioning

Pro-Cap: Leveraging a Frozen Vision-Language Model for Hateful Meme Detection

Rui Cao, Ming Shan Hee, Adriel Kuek, Wen-Haw Chong, Roy Ka-Wei Lee, Jing Jiang

ACM MM 2023

ClipCap不夠細節,改成採用更強的 VLM (如 BLIP-2)

用 Visual Question Answering (VQA) 取代 Captioning

slide 3

slide 3

Problems & Improvements

Problem 1: 僅靠「資料處理」,缺乏「特徵感知」

Prompthate / Pro-Cap 做法:僅在資料處理階段將迷因轉為文字,並排好「範例」(Demonstrations)。

模型缺乏專門的架構去「感知」和「比較」待分類迷因與範例之間的特徵關聯。

Improvement 1: PMP(Prompt-enhanced Multi-view Perception)

將提示擴展到特徵空間,建立 HPN / NHPN 網路主動去學習「待分類特徵」與「範例特徵」的關係。

Problem 2: 訓練目標單一,特徵邊界模糊

Prompthate / Pro-Cap 做法:僅依賴標準的「分類損失」(Cross-Entropy),目標是讓 [MASK] token 預測正確。

沒有顯式地 (explicitly) 強迫模型拉開「有毒」和「無害」樣本在特徵空間中的距離。

Improvement 2: PCL(Prompt-aware Contrastive Learning)

透過 L1 (類別導向) 和 L2 (提示導向) 兩個新損失,主動「雕塑」特徵空間,使同類更聚集、異類更分離。

Framework

文字序列

Features

slide 5

This post is licensed under CC BY 4.0 by the author.