項目応答理論のソースを表示
←
項目応答理論
ナビゲーションに移動
検索に移動
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、次のグループに属する利用者のみが実行できます:
登録利用者
。
このページのソースの閲覧やコピーができます。
'''項目応答理論'''(こうもくおうとうりろん)または'''項目反応理論'''(こうもくはんのうりろん)、略称'''IRT''' (Item Response Theory; Item Latent Theory) は、評価項目群への応答に基づいて、被験者の特性(認識能力、物理的能力、技術、知識、態度、人格特徴等)や、評価項目の難易度・識別力を測定するための[[試験]]理論である。この理論の主な特徴は、個人の能力値を測るだけでなく、項目(問題)の難易度・識別力・当て推量といった変数を、評価項目の正誤といった離散的な結果から[[確率論]]的に求める点である。 IRTでは、能力値や難易度のパラメータを推定し、データがモデルにどれくらい適合しているかを確かめ、評価項目の適切さを吟味することができる。従って、試験を開発・洗練させ、試験項目のストックを保守し、複数の試験の難易度を同等と見なす(例えば異なる時期に行われた試験の結果の比較をする)ためにIRTは有用である。また、[[コンピュータ適応型テスト]] (CAT:Computerized Adaptive Testing) もIRTによって可能になる。 より古典的テスト理論(正答率、素点方式、[[偏差値]]方式)と比べると、IRTは、試験者が評価項目の信頼性の改善に役に立つ情報を提供し得る、標本(受験者)依存性・テスト依存性にとらわれずに不変的に受験者の能力値とテスト項目の難易度を求められる、という利点がある。 == 概要 == 例として、4択問題100問、配点が1問につき10点(1000点満点)で構成されるテストを考える。この場合、以下の問題が発生しうる。 * 全問完全にランダムに回答した場合でも、25問は正解(250点は獲得)することが期待される。このように、回答の際の運による要素を多分に含んでおり、実力を正しく測れない。 * 得られた点数から計れる受験者の能力は集団やテストの内容に依存する。 * 項目(問題)の特性と受験者の能力との関係は、項目(問題)ごとの正答率・素点だけでは評価できない。 * 得られた点数や平均点等の各値は、項目(問題)の難易度などの特性に依存する。そのため、出題される項目(問題)が違うテスト間において、得られた点数や平均点などを直接比較することはできない。<br /> このような、正答率や総得点による受験者の評価を、'''古典的テスト理論'''(Classical Test Theory)、あるいは素点方式という。 項目応答理論は、運による要素や評価の相対性といった性質をもつ古典的テスト理論の限界を解消し、より科学的な手法で受験者の実力をより正確に測ろうとする理論である。項目応答理論では、個々の項目(問題)に対して、正答率や配点では無く、後述する数学的な仮説やパラメータを用い、受験者の能力を推定する。 これにより、以下のメリットを得られる。 * 識別力が著しく低い問題の正誤は、受験者の能力を決めるのにほとんど影響を持たないため、実質的に能力の推定や集計対象から除外する事ができる。 * ある項目(問題)群が相互に関係しており、一定の能力があれば全問正解できるにもかかわらず、1問しか正解しなかった場合、その正解は当て推量であり、受験者の実力によるものではない結果であることを推定できる。 * 受験者の能力や項目(問題)の難易度を、テストの難易度や受験者の集団に依存する事なく、普遍的に推定できる。 * ある点数以上を取れば合格とする(実際の点数の多寡は関係ない)テストにおいて、その信頼性を担保できる。 * 同じ正答率・得点を得た受験者同士でも、能力値は違う結果になり、受験者の特性を評価できる。 == IRTモデル == 一般的なモデルでは、項目への離散的な応答(正誤など)の確率が、1つの能力値と1つ以上の項目パラメータによる関数であるという数学的な仮説に基づいている。用いられる変数は以下の通りである。 ; <math>{\theta}</math>:能力値 : 各受験者の特性の大きさを表す実数値。正答率や総得点とは違い、[[間隔尺度]]である。 ; <math>a_i</math>:識別力 : 項目(問題)iが受験者の能力を識別する力を表す実数値である。 ; <math>b_i</math>:難易度(困難度) : 項目(問題)iの難しさを表す実数値。一般的には各項目に50%の正答率を持つ被験者の能力値<math>{\theta}</math>である。 ; <math>c_i</math>:当て推量 : 項目(問題)iに受験者が偶然に正答できる確率を表す実数値である。 IRTでは、各項目(問題)に対し、受験者の能力値と、項目(問題)の正答率の関係を、[[ロジスティック曲線]]で表す。これを項目特性曲線という。例えば、あるテストにおいて、ある項目(問題)が被験者にとって非常に簡単であった場合、その正答率は限りなく1に近づき、逆にある項目(問題)が被験者にとって非常に難しいものであった場合、その正答率は限りなく0(パラメータcを用いる場合は<math>c_i</math>)に近づく。 最も簡単な1パラメータロジスティック (1PL) モデル([[ラッシュモデル]]とも呼ばれる)では、変数に<math>{\theta}</math>と<math>b_i</math>のみを用いる。しかし適用のための条件は厳しくなっている。このモデルでは、項目(問題)iに正答する確率は次の式で与えられる。 {{Indent|<math> p_i({\theta})=\frac{1}{1+e^{-({\theta}-b_i)}} </math>}} 2パラメータロジスティック(2PL)モデルでは、さらに<math>a_i</math>を用いる。<math>a_i</math>は、その項目(問題)への回答の正誤から、能力値の高低を識別する正確さを示している。このモデルでは、ある項目(問題)iに正答する確率は次の式で与えられる。 {{Indent|<math> p_i({\theta})=\frac{1}{1+e^{-Da_i({\theta}-b_i)}} </math>}} ここで、定数''D''は1.701という値で、ロジスティック関数を累積[[正規分布]]関数に近似するためのもので、確率が関数の定義域(一般的に-3 - 3)内で0.01以上異ならないようになっている。なお、IRTモデルは当初は普通の累積正規分布関数が用いられたが、このように近似されたロジスティックモデルを使うことで、大きく計算を単純化することができた。 3パラメータロジスティック(3PL)モデルでは、多肢選択形式の場合において、適当に選択肢を選択しても偶然正答する確率<math>c_i</math>(当て推量ともいう)を考慮に入れ、項目iに正答する確率は次の式で与えられる。 {{Indent|<math> p_i({\theta})=c_i + \frac{(1-c_i)}{1+e^{-Da_i({\theta}-b_i)}} </math>}} 人パラメータは被験者の評価の対象となっている1次元的な特性の大きさを表す。この特性は[[因子分析]]の1つの因子に類似している。また、個々の項目や人は相互に独立であり、集合的に直交であると仮定されている。すなわち、ある項目の正誤は他の項目の正誤に影響せず、ある人の正誤は他の人の正誤に影響しないという仮定を置いている。 項目パラメータは、ある項目の性質を示す。項目パラメータが定まると、受験者がその項目に正答する確率<math>p_i</math>は各受験者の能力<math>{\theta}</math>の1変数のみを持つ関数になり、縦軸に正答率、横軸に能力値としたグラフが描ける。このグラフは'''項目特性曲線''' (ICC; item characteristic curve) と呼ばれる。パラメータbは項目の難しさであり、この値は人パラメータと同じスケール上にある。パラメータaは項目特性曲線の傾きを決定し、その項目が個人の特性の水準を識別する程度を示す。曲線の傾きが大きいほど、項目の難しさと人の特性の大きさに差があるときに回答の正誤がくっきり分かれることを示す。最後のパラメータcは、項目特性曲線の負の側の漸近線である。すなわち、これは非常に低い能力を持つ人がこの項目に偶然正答する確率を示す。 各項目は互いに独立であるという前提を置いているので、テスト全体の特性を表すモデルを、すべての項目特性曲線を足すことで求めることができる。これを''テスト特性曲線''という。 {{Indent|<math> T({\theta})=\sum_{i=1}^{N} p_i({\theta}) </math>}} 試験のスコアはこのテスト特性曲線によって求められる。テスト特性曲線は<math>{\theta}</math>の関数であり、<math>T({\theta})</math>の値を受験者のスコアとする。よって、IRTによるスコアは従来の方法によるスコアと比べ、計算・解釈において非常に異なっている。しかし、ほとんどのテストにおいて、値<math>{\theta}</math>と従来のスコアとの(線形)[[相関係数|相関関係]]は非常に高い(.95以上になることが多い)。したがって、従来のスコアに比べ、IRTのスコアのグラフは累積度数分布曲線の形に近くなる。 ここまでで示したモデルでは、1次元的な特性と、項目に対する正解・不正解のような2値のいずれかの応答を前提としていた。しかし、多値ラッシュモデルのように多値(例えば0:全く誤り 1:ほとんど誤り 2:概ね正しい 3:完全に正しい、の4値)をとるように拡張されたモデルや、多次元的な特性を仮定したモデルも存在する。 == パラメータの推定 == 以上では<math>{\theta}</math>、<math>a_i</math>、<math>b_i</math>、<math>c_i</math>の各パラメータが存在するものとして考えてきたが、それぞれの真の値は一般的に未知である。よって、離散的な回答からそれぞれの値を推定することもIRTにおける重要な問題である。その推定方法としては、[[最尤法|最尤推定法]]、[[ベイズ推定|ベイズ推定法]]などが知られている。 == 情報関数 == IRTの主な知見の1つは信頼性の概念を拡張したことである。伝統的に、信頼性とは測定の精度を示すものであり、真のスコアと観察されたスコアの誤差の比率など、様々な方法で定義される単一の指標であらわされる。古典的なテスト理論では、{{仮リンク|クロンバックのα係数|en|Cronbach's alpha}}などがテスト全体としての信頼性の指標を表すものとして知られている。しかしIRTによると、評価の精度はテストの成績の全範囲にわたって均一ではないことが明らかになる。一般的に、試験点数の範囲の端のスコアは、中央に近いスコアより多くの誤差を含んでいる。 IRTでは、項目・テストのそれぞれについて、信頼性の概念を置き換える'''情報関数''' (Information Function) という概念が用いられる。例えば[[ロナルド・フィッシャー|フィッシャー]]の[[情報理論]]に従って、ラッシュモデルの場合には、''項目情報関数''は単純に正しい応答の確率と不正確な応答の確率の積で与えられる。すなわち、不正確な応答の確率を<math>q_i({\theta})=1-p_i({\theta})</math>で表すと、以下の式で与えられる。 {{Indent|<math> I({\theta})=p_i({\theta}) q_i({\theta}) </math>}} 推定の[[標準誤差]]はテスト情報の逆数である。すなわち以下の式で表される。 {{Indent|<math> \mbox{SE}({\theta})=1/\sqrt{I({\theta})} </math>}} 従って、情報量が多いほど、測定の間違いがより少ない(被験者の能力の推定がより正確である)ことを意味する。 2PL、3PLモデルでもほぼ同様であるが、他のパラメータも考慮に入る。2PL、3PLモデルのための項目情報関数はそれぞれ以下の式で表される。 {{Indent| <math> I({\theta})=a_i^2 p_i({\theta}) q_i({\theta}) </math> <math> I({\theta})=a_i^2 \frac{q_i({\theta})}{p_i({\theta})} \frac{(p_i({\theta})-c_i)^2}{(1-c_i)^2} </math> }} 各項目は互いに独立であるという前提を置いているので、項目情報関数は加法的である。テスト情報関数は単純にその試験における各項目の項目情報関数の和で求められる。テスト情報関数は、古典的なテスト理論における信頼性の概念を置き換えるものになる。 この性質を用いて、テスト項目の適切性に理論的根拠を与えることや、ある目的に特化したテストを作ることが可能になる。例えば、ある合格基準点を超えるか超えないかのみで合格・不合格が結果として与えられる(実際の合格点は重要でない)テストを作るのに有効なのは、合格基準点の近くで大きい情報が得られる項目だけを集めてテストを作ることである。また、コンピュータ適応型テストのように、ある時点での回答状況に応じて受験者の能力値を推定し、次にその受験者の能力値周辺で大きな情報が得られる問題を出題するということも可能になる。 == 等化 == '''等化''' (equating) とは、異なったテストの結果、異なった受験者に対してのテストの結果を、項目パラメータや被験者能力値に関係なく、共通の原点と単位をもつ尺度に変換することである。等化には、水平的等化、垂直的等化の2種類がある。 ; 水平的等化 (horizontal equating) : 同一の能力水準に対して複数のテストの難易度間に共通の尺度を設定すること ; 垂直的等化 (vertical equating) : 異なった難易度のテスト間に異なった尺度を設定すること 古典的なテスト理論においては、テスト依存性や受験者依存性がつきまとうので等化を実現することは困難であった。しかしIRTによる項目パラメータは不変的であり、理論的には等化の必要はない。しかし、実際には一定の定数によって、2つのテストの得点を同一尺度上に変換することがよく行われる。この手続きは以下の式で行われる。 {{Indent|<math> {\theta}'={\alpha}{\theta}+{\beta} </math>}} <math>{\theta}'</math>は等化された能力値で、<math>{\alpha}</math>、<math>{\beta}</math>は等化定数と呼ばれている。またこのとき、項目パラメータは以下のように調節される。 {{Indent| <math> a_i'=\frac{a_i}{\alpha} </math> <math> b_i'={\alpha}b_i+{\beta} </math> }} 等化定数<math>{\alpha}</math>、<math>{\beta}</math>の推定には、共通の受験者または共通の項目が必要となる。そして、等化のための基準には回帰係数、平均値と標準偏差、項目特性曲線の特徴等が用いられる。 == IRTを使用している主なテスト == * 医学系共用試験CBT * [[基本情報技術者試験]] * [[TOEFL]] * [[BJTビジネス日本語能力テスト]] * [[J-CAT]](日本語適応型テスト) * [[日本語能力試験]] * JETRO ビジネス能力日本語試験 * [[日経TEST]] * [[ITパスポート試験]] * [[語彙・読解力検定]] * [[Linux Professional Institute Certification|Linux認定LPIC]] *[[日本留学試験]] *TECC (中国語コミュニケーション能力検定) *[[リーディング・スキル・テスト]] <!-- == 脚注 == {{脚注ヘルプ}} {{Reflist}} --> <!-- == 参考文献 == --> == 関連項目 == <!-- {{Commonscat|Item response theory}} --> * [[プロジェクト:数学/数学に関する記事]] *[[潜在ランク理論]](LRT:Latent Rank Theory)- IRTと同様の分析だが、連続ではなく段階尺度で行ったもの == 外部リンク == * {{Cite web |author = Lawrence M. Rudner |date = 2001-12 |url = http://echo.edres.org:8080/irt/ |title = Item Response Theory |work = |publisher = |language = 英語 |accessdate = 2012-08-03 }} {{Statistics-stub}} {{Psych-stub}} {{Normdaten}} {{デフォルトソート:こうもくおうとうりろん}} [[Category:確率論]] [[Category:統計学]] [[Category:解析学]] [[Category:心理検査]] [[Category:数学に関する記事]] [[Category:教育評価]] [[Category:項目応答理論を使用している試験|*]]
このページで使用されているテンプレート:
テンプレート:Cite web
(
ソースを閲覧
)
テンプレート:Indent
(
ソースを閲覧
)
テンプレート:Normdaten
(
ソースを閲覧
)
テンプレート:Psych-stub
(
ソースを閲覧
)
テンプレート:Statistics-stub
(
ソースを閲覧
)
テンプレート:仮リンク
(
ソースを閲覧
)
項目応答理論
に戻る。
ナビゲーション メニュー
個人用ツール
ログイン
名前空間
ページ
議論
日本語
表示
閲覧
ソースを閲覧
履歴表示
その他
検索
案内
メインページ
最近の更新
おまかせ表示
MediaWiki についてのヘルプ
特別ページ
ツール
リンク元
関連ページの更新状況
ページ情報