不正な原因

  • 説明:

間違った原因

因果推論は人間の知性の特徴の 1 つです。

Corr2cause は 400,000 サンプルを超える大規模なデータセットであり、関連する論文では 17 の既存の LLM が評価されています。

全体として、Corr2cause には 415,944 個のサンプルが含まれており、そのうち 18.57% が有効なサンプルです。前提の平均長は 424.11 トークン、仮説は 10.83 トークンです。データは、それぞれ 411,452 個のトレーニング サンプル、2,246 個の開発サンプルとテスト サンプルに分割されます。データセットの主な目的は LLM のパフォーマンスのベンチマークであるため、テストおよび開発セットは、あらゆるサイズのグラフを包括的にカバーするように優先されています。

スプリット
'dev' 2,246
'test' 2,246
'train' 411,452
  • 機能の構造:
FeaturesDict({
    'input': Text(shape=(), dtype=string),
    'label': int64,
})
  • 機能ドキュメント:
特徴クラスDタイプ説明
特徴辞書
入力文章
ラベルテンソルint64
  • 引用
@misc{jin2023large,
      title={Can Large Language Models Infer Causation from Correlation?},
      author={Zhijing Jin and Jiarui Liu and Zhiheng Lyu and Spencer Poff and Mrinmaya Sachan and Rada Mihalcea and Mona Diab and Bernhard Schölkopf},
      year={2023},
      eprint={2306.05836},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
}