2020.10.08

全国学力テストの失敗は日本社会の縮図である――専門性軽視が生み出した学力調査の問題点

『全国学力テストはなぜ失敗したのか』著者、川口俊明氏インタビュー

情報 #新刊インタビュー

2007年から実施されている「全国学力・学習状況調査」(全国学力テスト)は、開始当初から実施手法や競争原理の導入など様々な問題点が指摘されてきた。近年は、教員評価に用いることへの懸念、また長時間労働が問題視される学校現場での大きな負担という声も上がっている。

2020年4月は、新型コロナウイルスの影響により実施が中止になったが、それを契機に全国学力テストそのものの見直しの議論も広がっている。新刊『全国学力テストはなぜ失敗したのか』著者の川口俊明氏(福岡教育大学)に、全国学力テストにまつわる誤解と今後の議論の方向性について話を伺った。(聞き手・構成/岩波書店 大竹裕章)

日本には学力調査のデータがほとんどない

――『全国学力テストはなぜ失敗したのか』では、全国学力テストそのものの問題にとどまらず、科学的な学力調査のあり方全般や日本の行政・社会の問題にも幅広く触れています。本書執筆の動機は、どのような点にあるのでしょうか?

わたしはもともと学力格差、つまり保護者の学歴・年収・職業、あるいは本人の性別、出身地といった社会的な要因で生じる学力差を研究テーマにしていました。ただ日本には、研究に利用できる学力調査のデータがほとんど存在しなかったのです。アメリカやイギリスでは、科学的に設計された学力調査のデータを研究者が利用できますし、国際的な調査であるPISA(OECD生徒の学習到達度調査)やTIMSS(国際数学・理科教育動向調査)も、個票データが公開されています。自分で学力調査を行わなくても、研究することができるのですが、日本はそうではありません。

2007年に始まった「全国学力・学習状況調査」(全国学力テスト)で、こうしたデータを取れるようになることを期待していたのですが、とてもそのような水準にはありません。現行の全国学力テストは、特定の学年の児童生徒全員に行う悉皆(しっかい)形式で、毎年数十億の費用と多くの労力をかけて行っています。ところがその中身は「調査」に値するものではなく、過去との学力の変化を比較することもできませんし、子どもの家庭状況など他の要因との関係を調べることもできない、極めて不十分な代物でした。

ですから、しかたがなく自分でデータを収集し、学校現場や自治体の教育行政担当者にお話を伺いにいくことを続けました。そこで何度も言われてきたのが「調査が学校の役に立たない」という言葉です。「学校の役に立たない調査には協力したくない」と。

こうしたすれ違いが生じてしまうのは、「何のための学力調査なのか」という目的がきちんと理解されていないためだと考えられます。そのためには、学力調査というものの全体像を根本的なところから示す必要があると思ったのです。

「学力調査」と「指導に役立つテスト」を混ぜてはいけない

――本書でも繰り返し触れられる論点ですが、どのような「すれ違い」なのでしょうか。

まず、学力調査とは「個々の学校の役に立つ」ものではありません。多くの方が誤解しているのですが、学力調査とは、社会の現状を把握するために、社会調査・教育測定などの理論に基づいて設計・実施するもので、子どもの指導に使うために教室で行う日々のテストとは全く違います。「現状把握」と「指導に役立たせる」という2つの目的を両立させるのは極めて困難で、ほんらい混ぜてはいけないのです。

ところが、現在の全国学力テストはその構想段階から複数の思惑が入り込んでしまっています。「競争で学力を向上させよう」「教員の評価にも用いよう」などの競争主義もそうですが、とくに本書で取り上げているのが「学校現場の役に立つ、指導に役立つテストにしよう」という考え方です。これは簡単に言うと、全国学力テストを受験した子どもや学校に直接役立つものにしようという発想です。しかし、調査に異なる複数の目的を混ぜると、調査設計自体が破綻します。結果、大して意味のないデータしか取れなくなるのです。

とくに「指導に役立つテスト」というロジックの問題の根は深いものです。「指導に役立つ」のであれば、一部の子どもを抽出して学力調査を行うのではなく、全員を対象にテストを行うのが筋だということになります。調査対象を絞る抽出形式ではなく、全員を対象とした悉皆形式で行い、膨大な費用と多くの手間をかけてテストを行うことが正当化されてしまったのです。

現在の全国学力テストに批判的な立場をとる論者の中には、「全国学力テストは現場の役に立っていない、もっと指導に活かせるように改善すべきだ」というような声もありますが、これは筋の悪い批判です。むしろ「現場の役に立つように」という声に応えるために、現在のような全国学力テストになってしまっていると考えるほうが正しい。こうした批判は、問題点の維持につながってしまいかねません。

「抽出で十分」ではなく「抽出でないとダメ」

――構想時点から現在も様々な思惑が入り込んでしまっているとなると、失敗するべくして失敗してしまった、ということになるのでしょうか。

2007年の実施開始当時、私は大学院生でしたが、志水宏吉先生や苅谷剛彦先生をはじめ、複数の研究者が批判的な姿勢を示していました。当時の批判の論点は、残念ながらというべきか、現時点でもそのまま当てはまるものが多いと思います。

ただ強いて言うと、十分に理解されなかった論点もあります。大規模学力調査の設計には、社会調査だけでなく、教育測定の知見も必要になります。当時学力調査に批判的だった研究者は教育社会学者が中心でしたので、一部の方を除けば、教育測定への目配りがどうしても十分ではありませんでした。

現在でも「全国学力テストを悉皆で行っているために大きな負担が生じている。抽出で十分なはずだ」という批判がなされることがあります。これは社会調査の観点での「全数調査が理想だが、標本抽出を適正に行えば悉皆でなくとも十分に実態を示すことができる」という発想に基づくものでしょう。ですがこれは、現在の全国学力テストへの批判としては正しくありません。「抽出調査で十分」なのではなく「抽出調査でないとダメ」なのです。

詳しい説明は本書に譲りますが、テスト項目の開発や秘匿といった技術的な問題を考えると、毎年悉皆で精度の高いテストを行うことはとても不可能です。直観的には、毎年度、悉皆で学力調査を行った方が正確な実態がわかると思うかもしれませんが、実際には、調査の精度が下がってしまいます。大規模学力調査の設計には、こうした直感に反する部分が少なくなく、理解するには複数の領域にまたがった専門的な知見が必要なのです。

――費用や現場の負担等の問題を抜きにすれば「一部の子どもだけよりも、全員に実施したほうが測定自体は正確になるはず」と考えてしまいそうですが、そうではないのですね。

有名な国際学力調査であるPISAを例にとると、幅広い領域を測定するために受験者間で回答する設問を変える「重複テスト分冊法」という学力調査の手法が利用されています。直感的には、全員が同じ設問のテストを一斉に受けるほうが正確になりそうなものですが、全員が同じ設問に回答すると、全体としてみた場合に調査できる領域が偏ります。

また、「重複テスト分冊法」を含め、PISA等の大規模学力調査で採用されている技術の背後には、IRT(項目反応理論)というテスト理論があります。しかし現在の全国学力テストの議論では、賛成派も反対派も、IRTを始めとするテスト理論の知識を欠いている人が多いように思われます。これでは、どうやっても建設的な議論はできません。本書では、全国学力テストに関する議論を行う前提となる、最低限の知識について説明したつもりです。

――なお、今年2020年4月に行われる予定だった全国学力テストは、新型コロナウイルスの影響で中止となりました。学力調査の専門家として、この判断をどのように考えますか?

率直に言うと、今のかたちで行われる全国学力テストは中止してよかったと思います。というのは、実施しても大してわかることがないから(笑)。この状況下で、悉皆で行う学力調査を中止した判断に異論はありません。

ただ、きちんと設計された学力調査であれば、実施する意義はあったと思います。現在の全国学力テストは毎年のテストの難易度が調整されていないので、点数が上下しても子どもの学力が上下したのかテストの難易度が上下しただけなのか区別できませんから、経年的な学力の変化を捉えることはできません。もしそうした点に配慮した設計ができていれば、今後につながるデータを取れたはずです。

また、2020年3月からの全国一斉休校中に、子どもたちの学力格差は広がってしまった可能性は極めて高いと思います。SES(保護者の学歴や年収など)を把握できる調査設計がなされていれば、家庭の状況に応じて学力の格差が拡大したかどうか検討できたはずです。教育政策を考える上でも、こうしたことは把握すべき実態だと思いますし、その後の施策を考えることにつながります。しかし残念ながら、現状の全国学力テストでは明らかにできないのです。

「指導のためのテスト」は先生の特権

――全国学力テストの実施に関わる先生や、より現場に近い教育行政の人たちからすると、「学校やクラスの子どもに少しでも良い点数を」「どんな機会でも子どもの学習に役立てたい」と思うのは自然なのではないでしょうか。それゆえ、実態を調査するということ/指導に役立てることを、切り分けにくいのかもしれません。

気持ちとしてはわかります。ですが、現実には家庭環境や学校環境、あるいは教育政策などの影響により、子どもたちの点数にはばらつきが存在しています。調査というのは、こうした社会全体で見たときの子どもの成績のばらつきと、それに影響を与える要因を明らかにすることが主な目的です。子どもの学習に役立てる日常のテストとは、そもそもの目的が違うのです。

「学校現場の指導に役立つテストに」という考え方もそうです。「目の前の子どもの指導に使えるテスト」というロジックは「どの子の指導にも役立つように」と、悉皆実施へとつながります。しばしば指摘されているように、悉皆の全国学力テストは先生たちへの大きな負担になった挙げ句、ろくなデータもとれていません。「テストを子どもの指導に役立たせたい」という素朴な教室の内側のロジックが、結果的に先生たちの首を締めています。

技術的な問題を抜きにしても、指導のためのテストを、膨大な費用と手間をかけて全国一律で行う必要はありません。目の前の子どもの日々の学習に役立てたいのであれば、子どもの状況をよく知っている先生がテストを作るか、あるいは市販のテストを選んで利用するほうがいいに決まっています。子どもの学習実態を見極めて、適切なテストを作成(あるいは選択)する技術は、教師の腕の見せ所ではないでしょうか。わざわざ国が指導のためにテストを用意するというのは、教師の腕を信用していないということです。最近の教育では、自ら考える力が重要だと言われることが少なくないようですが、それなら尚更、教師にもテスト内容を自ら考える力を養ってもらった方がよいでしょう。

SES(保護者の学歴や年収など)と学力の関係を調べるのは人権侵害?

――全国学力テストが報道される際、「○○県は何位だった」「順位が下がった/上がった」ということばかり言及され、その点に言及する政治家や行政担当者も目立ちます。

困ったものです。繰り返しますが、学力調査とは社会の実態を把握するために、教育測定や社会調査等の専門的な知識に基づいて設計・実施されるものです。結果を理解するには、報道する側にもそれ相応の知識が求められるのですが、現状ではしっかり理解して報じているとは思えないものが多いですね。結果を受け取る側も、せいぜい自分の所属する自治体や学校の平均点と順位くらいしか気にしていないように思いますが、こうした態度はナンセンスだと思います。

学力テストの成績には、子どもの実力や学校の努力以外に、SESの要因が強く関連しています。学力テストの成績が高い学校というのは、そこに所属する教師や子どもが頑張っているから成績が高いのではなく、たんにもともと恵まれた家庭環境の子どもが多く集まっているだけということも少なくないのです。もっとも、日本の教育関係者には、こうした実態を示すこと自体を嫌がる方も少なくありません。「SESと学力の関係について調べても意味がない」だったり、極端な場合は「SESを調べるのは人権侵害」とさえ言われることもあります。

ですが、実態を見ずに有効な対策が考えられるはずがありません。特に都市部の場合、SESの高い学校と低い学校のあいだには、学校の努力ではいかんともしがたい成績差が存在しています。この現実に目を背けたままで、日本の教育を変えることができるとは思えません。

また、学力テストの結果をもとに、優れた学校や教師を見つけようとする政治家は少なくありませんが、学校の教育成果を測りたいのであれば、SESや学校入学時の成績など、さまざまな要因を考慮しなければなりません。「教育格差」が注目されるようになっても尚、成績の高い学校≒頑張っている学校という見方をする方は少なくないようですが、あまりにも物事を単純に見すぎています。こうした見方をあえて企業経営に例えると、人通りの多い都市部の駅前にある店舗と、人通りの少ない田舎にある店舗の売り上げを比べて、前者の方が後者より優れた経営をしている! と賞賛しているようなものです。EBPM(エビデンスに基づく政策決定)ということが言われて久しいですが、それには程遠い状況です。

専門知なしに学力の実態はわからない

――どうして、そのようなうまくいかない状態にあるのでしょうか。

そもそも行政の側に、実態把握をする積極的な動機がないという点が大きいと思います。たとえば全国学力テストの場合、調査をするのも政策を立案するのも同じ文部科学省ですから、適切に実態把握をすると、自らの過去の政策が誤りだったということがわかってしまう可能性があります。こうなると、適切に調査をするより、自らの政策に合わせて歪んだ調査結果を示した方が得だということになってしまいます。こうした状況を変えるのは、行政の担当者だけでは難しいでしょうから、政治家や市民の声が必要となるでしょう。

それと日本の場合、教育行政には、学校現場で教師をしてきた上で教育委員会に入ってくる人が多くいます。そうなると、学校現場のロジックで「現場の役に立つものを」という考え方を持ったまま、学力テストの実施に関わってしまうのです。

繰り返しになりますが、「現状把握」と「指導に役立たせる」という目的を混ぜること自体が落とし穴です。しかし、調査による「現状把握」というロジックは、一定の訓練を受けないと身に付けられるものではなく、すぐに改善することは難しいでしょう。

――問題の根本には、正確な実態把握や、そのために必要な専門性の軽視がみられるということですね。様々な分野で見られることだと思いますが、学力テストに関しても当てはまる、と。

言い方は悪いですが、現在の日本の教育政策にはアカデミックな専門性を尊重するという姿勢がありません。大学での学びを軽視する風潮もしばしば見られ、近頃では「教員養成系大学は不要」「文系大学教育は仕事の役に立たない」といった声すら聞かれます。そうした姿勢の行き着いた先が、今の徒労ばかりで意味のない全国学力テストだと思います。

地方の教育行政にも、こうした専門知を軽視する風潮があります。少し前に、コロナ禍の子どもたちの状況を調べる名目で、東京都教育委員会が「都内の学校に通う皆さんへのアンケート」という「調査」をオンラインで実施しました。ところがその回答方法が、自分の意見をwordやPDFに記入し、それをメール添付で教育委員会に送付するというものだったのです。これは大人でも回答するのが嫌になると思います(笑)。さらに、質問項目も恣意的で、社会調査の入門書に悪い見本として掲載できるレベルでした。調査をするのであれば、最低限の基本は踏まえるべきでしょう。

行政もマスメディアも専門性を高める努力をするべき

――どうなれば、こうした課題は解決できるのでしょうか。

大前提として、学力調査の設計は専門性を要するものだということが、きちんと認識されることが必要です。他の分野にもある話かもしれませんが、学問的な知見や調査結果の裏付けががないまま、政治家も行政担当者も施策を進めるようになってしまっています。加えて、マスメディアにも専門性が欠けているので、この状況を批判できていません。

外国での学力調査体制を紹介すると、教育測定や社会調査など複数の分野の専門家がそれぞれ参加し、それを統括する事務局も置かれます。事務局の行政担当者には博士号を持っている人もおり、各分野の専門家の議論を理解し、まとめ役を務めるだけの能力を有しています。今後、全国学力テストにCBT(コンピューターを利用したテスト)を導入するのであれば、社会調査や教育測定に加えて、情報工学の知識が必要になってきます。現在でも、学力調査を外注している自治体は少なくありませんが、適切なCBTを実施するには、行政担当者自身があらゆる技術に精通していなければ、まともに仕様書を書くことすらできません。

こうした専門性は、マスメディアにも必要です。つい先日のNHK NEWSで、CBTに関する文部科学省のワーキンググループの中間まとめに関する報道がありましたが、その記事を読んでみると、IRTに関する議論は見事に抜け落ちていました(笑)。CBTの利点を十分に活かすにはIRTの知識が必須で、ワーキンググループでもこの点はきちんと議論していたのですが、報道する側が理解できなければ一般の人には伝わりません。

学力調査を適切に行うというのは、さまざまな専門性の下支えがあってできることなのです。各分野の専門家の力は不可欠ですし、行政担当者・マスメディアの側も学士の知識では不十分で、修士・博士レベルのアカデミックな訓練を受けることが必要になってきます。それが難しいなら、常に相談できる常勤の専門家を組織の内部に採用しておくべきでしょう。

教育行政に関していえば、担当者の専門性に加えて、学力調査を実施し実態把握を行う部署と、それに基づいて政策を検討・実施する部署を分けるのも有効ではないかと思います。文部科学省は形式上、調査・研究を行う「教育政策研究所」を別組織として設けていますが、このようにそれぞれの役割を独立させるべきでしょう。

――「専門知の軽視」「目先の有用性を追って大きな失敗を引き起こす」「根拠に基づかない施策」など、全国学力テストの失敗は他の分野の問題に当てはまるものが多いように感じられます。こうした点の改善を、本書でも提言しています。

ただし、その道のりは遠いと思います。学力調査の目的が「現状把握」であることを行政関係者・教育関係者に理解してもらわないといけませんし、圧倒的に不足している、大規模な学力調査を設計・運用できる人材の育成を始めないといけません。しかし、現在の大学改革の状況はそれに逆行しています。

2019年度、大学の教職課程認定(大学で教員免許を取得できるための制度)において、「教職課程コアカリキュラム」が導入されました。これによって教員養成系大学・学部では、学校現場の「役に立つ」講義内容を求める傾向が強まっています。しかし当然というべきか、このコアカリキュラムでは、教育測定も社会調査も言及されていません。「今、この瞬間の現場の役に立つこと」に引っ張られた教員養成が行われているわけで、ここには全国学力テストと同じ問題構造があるように思います。

教育測定も社会調査も、専門家養成のために長い時間が必要な領域です。この両分野とも教員養成では重視されていないので、当然アカデミックポストも減ります。そうなると、この分野を専門的に学んでも就職口がありませんから、教育測定や社会調査を理解できる教育研究者の数がますます減っていき、人材育成はおろか、分野の存続すら危ういというのが正直なところです。率直に言って、このコアカリキュラムの制度が続く限り、全国学力テストの改善は難しいように思います。

問題は山積みですが、多くの問題をはらむ現行の全国学力テストも、すでに実施から10年が過ぎました。ほとんど使えない調査に、膨大な金額と労力が費やされてきたのです。そろそろ、こうした調査の問題点と、どのように改善していけばよいのか議論すべき時期がきていることは確かです。本書が、そうした議論をより良いものにすることにつながればと考えています。

プロフィール

川口俊明教育学・教育社会学

福岡教育大学教育学部准教授。大阪大学大学院人間科学研究科博士後期課程修了。専門は教育学・教育社会学。日本の学力格差の実態を明らかにするため、学力調査の分析や学校での参与観察調査をしています。

著書に『全国学力テストはなぜ失敗したのか』(岩波書店)、主な論文に、「教育学における混合研究法の可能性」『教育学研究』78(4)、 pp.386-397、「日本の学力研究の現状と課題」『日本労働研究雑誌』53(9)、 pp.6-15など。

この執筆者の記事