GDL 기반 GNN 설명 기법 (GDL-based GNN Explanation)

1. 문제 (Problem)

GNN 설명(GNN Explanation) 은 GNN이 특정 예측을 내린 근거를 사람이 이해할 수 있는 형태로 제시하는 문제이다. 신약 개발, 의료 진단, 프로그램 분석, 사기 탐지 등 의사결정이 중요한 도메인에서 GNN을 실제로 배치하기 위한 전제 조건이다.

지금까지 제안된 대부분의 GNN 설명 기법은 subgraph(부분 그래프) 또는 subgraph 위의 가중치(edge/feature mask) 를 설명의 단위로 사용한다.

그러나 subgraph/edge mask를 설명 언어로 사용하는 접근법은 다음과 같은 근본적 한계를 가진다.

최근 PL4XGL [Jeon, Park, Oh, PLDI 2024]과 ProgNet [Anonymous, KDD’26 under review]이 GDL(Graph Description Language) 을 분류의 근거 언어로 도입하였다. GDL program은 node x <φ> / edge (x,y) <φ> / target 으로 구성되며 feature 값을 interval(구간) 로 기술하는 declarative 패턴 언어이고, subgraph보다 엄격히 더 표현력이 강하다 [PL4XGL §7.2]. 특히 PL4XGL은 구조적으로 Fidelity = 0 을 보장한다 (Theorem 6.1): 분류가 program에 의해 직접 수행되므로, 그 program을 만족하는 subgraph로도 동일한 label 예측이 성립. 이는 post-hoc subgraph 설명이 도달하기 어려운 수준의 faithfulness이다.

그러나 두 연구 모두 GDL을 특정 모델 구조에 내장하여 사용한다. PL4XGL은 GNN을 아예 대체하는 symbolic 분류기 $M \subseteq L \times P \times [0,1]$ 이고, ProgNet은 GDL vocabulary를 GNN 인코더와 결합한 전용 아키텍처이다. 즉 임의의 사전 학습된 GNN을 그대로 두고 GDL을 설명 언어로 덧씌우는 model-agnostic 프레임워크는 부재하다. 한편 PL4XGL 저자들은 논문의 Related Work(§8)에서 “GDL can be employed in … GNN explanation techniques” 라고 이 방향을 직접적으로 제안하였으나, 실제로 구현한 연구는 아직 없다. 추가로 PL4XGL은 표현력 한계도 지적한다 (§7.1): homophily, aggregate 술어(“oxygen 수 > chlorine 수”), heterophilic citation network 등은 현재 GDL로는 기술되지 않으며, Cora/Citeseer/Pubmed에서 정확도가 떨어진다. 따라서 GDL 기반 GNN 설명은 이러한 한계를 보완할 확장된 GDL도 함께 연구될 필요가 있다.

2. 목표 (Goal)

Subgraph 대신 GDL program을 설명의 단위로 사용하는 GNN explanation 프레임워크를 개발한다. 구체적으로 다음 목표를 동시에 달성한다.

3. 기본 접근 방법 (Basic Approach)

(1) 설명 언어로서의 GDL

(2) Post-hoc GDL Explainer

사전 학습된 임의의 GNN $f$와 입력 그래프 $G$가 주어졌을 때:

  1. Candidate program 생성: $G$를 기반으로 후보 GDL program 집합 $\mathcal{P}_G$ 생성. PL4XGL의 top-down(specialize) / bottom-up(generalize) program synthesis를 재사용 — 특히 bottom-up은 구체적 인스턴스에서 출발해 generalize하므로 post-hoc 설명과 자연스럽게 부합
  2. Program scoring: 각 program $P$에 대해 GNN 예측 기여도 $s(P)$ 계산 — GNNExplainer 스타일의 mutual information, PGExplainer 스타일의 parameterized scorer, 또는 SubgraphX 스타일의 Shapley value를 GDL 공간으로 확장
  3. Program selection: $f(G)$의 예측을 유지하는 최소의 program 집합을 선택 (e.g., Fidelity(−) 최소화). PL4XGL의 Theorem 6.1과 유사하게 “program을 만족하는 임의 subgraph도 같은 예측” 이라는 구조적 성질을 최대한 근사하는 것이 목표
  4. Instance grounding: 선택된 program들을 만족시키는 concrete subgraph $G’ \subseteq G$를 iterative refinement로 추출 (ProgNet의 Algorithm 2 참고)

(3) Intrinsic GDL Rationale

학습 과정에 GDL 기반 rationale을 내재화하는 방법:

(4) Global Explanation via GDL Vocabulary

데이터셋 전반에 걸친 설명:

(5) Counterfactual GDL Explanation

(6) 평가 프로토콜

4. 후보 벤치마크 (Candidate Benchmarks)

실세계 분자 그래프 (설명 품질이 도메인 의미와 직접 연결)

합성 벤치마크 (ground-truth motif가 명시된 설명 전용)

Heterophilic / 표현력 한계 스트레스 테스트

프로그램 분석 / 보안 (interval 술어가 자연스러운 도메인)

사기 / 금융 (수치 feature 중심)

Explanation 평가 전용 벤치마크 스위트

5. 후보 베이스라인 (Candidate Baselines)

5.1 Post-hoc: Mask / Perturbation 기반

5.2 Post-hoc: Search / Game-Theoretic 기반

5.3 Post-hoc: Surrogate / Probabilistic 기반

5.4 Post-hoc: Generative / RL 기반

5.5 Counterfactual Explanation

5.6 Intrinsic / Rationale-Based

5.7 Global Explanation

5.8 Concept-Based

5.9 Symbolic / Program-Based (GDL과 가장 밀접)

5.10 평가 프로토콜 관련 (기법 아닌 benchmark/metric)

5.11 Survey

평가 지표


연구 지형 요약 (Research Landscape Summary)

대표 연구 한계
Post-hoc subgraph/mask GNNExplainer, PGExplainer, SubgraphX, GraphMask instance-level, interval 불가, 불안정
Intrinsic rationale GSAT, GIB, DIR, ProtGNN subgraph/edge 기반, dataset-level 재사용 어려움
Global explanation XGNN, GNNInterpreter, GCFExplainer 생성된 graph가 데이터 분포와 분리됨
Counterfactual CF-GNNExplainer, RCExplainer, CLEAR 여전히 edge-level, interval 설명 부재
Symbolic / program-based PL4XGL, ProgNet model-agnostic post-hoc 프레임워크 부재

GDL 기반 GNN explanation은 interval-aware 설명 언어의 표현력과 dataset-level 재사용성을 모두 확보하면서도, 임의의 사전 학습 GNN에 적용 가능한 post-hoc 프레임워크 영역을 메운다. 이 방향은 PL4XGL 저자들이 §8에서 직접 제안한 것이기도 하다. 자연스러운 3대 비교 기준은 GNNExplainer/PGExplainer (mask 기반), SubgraphX (search 기반), GSAT (intrinsic rationale) 이며, symbolic 계열에서는 PL4XGL, ProgNet 과 직접 비교한다.

GDL 확장 방향 (Open Problems)

PL4XGL §7.1의 표현력 한계는 GDL 기반 설명에도 그대로 영향을 미치며, 다음을 해결하면 더 완전한 설명 언어가 된다.