テレ東BIZ
以下、「共通テストで満点続出のAIが間違えた3%の問題は?【テックの鼓動】 」の概要欄より
フル視聴はコチラ▶https://txbiz.tv-tokyo.co.jp/original2/vod/post_334394?utm_source=youtube&utm_medium=video&utm_campaign=original2_260201_yt_Rw-g6OIyzfk
AIに大学入試「共通テスト」を解かせたら、上位1%(97%得点)の成績を叩き出しました。
しかし、そんなAIたちが「全員間違えた問題」があります。そこに見えたAIの意外な限界とは?
今回はライフプロンプトの遠藤さんをお招きし、ChatGPT、Gemini、Claudeの最新モデルを使った比較実験の結果を深掘りします。
▼内容
・最新AIの共通テスト偏差値・得点率
・GPT vs Gemini vs Claude 特徴の違い(速度か精度か)
・AIがどうしても解けない「人間の感情」と「図」の問題
・ビジネスで「上位1%の頭脳」をどう雇い、どう管理すべきか
▼目次
オープニング:AIが共通テストで97%の衝撃結果
満点続出!特に強かった科目は「理系」
試験方法:PDFを「画像」として認識させて解答
モデル別対決:最強はGPT、しかし速度に圧倒的差が
各モデルの得意・不得意傾向
【全滅】AIが解けなかった「英語リスニング」の意外な理由
AIの弱点:小説の「人間らしいダメさ」が理解できない
地理で発覚!Geminiだけが正解した「深い図解読み取り力」
日本史の点数が急激に伸びた理由
【結論】ビジネスパーソンはこの「上位1%の知能」をどう使うべきか
#AI #ChatGPT #Gemini #Claude #共通テスト #大学入試 #検証 #LLM