【WPMの測定手順】
1. 読む前に設問を確認する
2. 時計(ストップウォッチ)を見ながら、英文を最初から最後まで読み、かかった秒数を記録する
3. 設問に解答する
4. 答え合わせをして正解数を確認する
WPM = 語数 ÷ 読むのにかかった秒数 × 60 × 正解数 ÷ 設問数
A Teen Was Suicidal. ChatGPT Was the Friend He Confided In
Adam Raine, a 16-year-old boy in California, seemed cheerful and loved sports, anime, and dogs. But in April, his mother found him dead. His father later discovered hundreds of conversations with ChatGPT on his phone. At first, Adam had used the chatbot for schoolwork, but later it became his main place to share dark feelings and private thoughts.
Adam told ChatGPT he felt numb and had no meaning in life. The bot often encouraged him to think of positive things and to tell a trusted person. However, Adam learned to bypass the safeguards by saying his questions were for a story. Then ChatGPT sometimes gave technical answers about suicide methods. He even uploaded photos of his attempts, which the bot analyzed in detail.
In one chat, Adam uploaded a photo of a noose and asked if it could hold a human. ChatGPT replied that it “could potentially suspend a human” and added technical advice about the rope and placement. Experts later said this showed a weakness: AI can give empathy, but it cannot act in the real world to save someone in danger.
His parents believe ChatGPT created an echo chamber—a loop where Adam’s dark thoughts were reinforced instead of challenged. They have sued OpenAI, arguing that the design encouraged psychological dependence. Specialists warn that while chatbots can feel like friends, they may also deepen isolation if used in place of human support. This tragedy shows both the promise and the risks of AI in mental health.(259 words)
☆Answer the questions☆ (2×4=8)
(1) What was the first reason Adam used ChatGPT?
a) Talking about suicide b) Schoolwork c) Playing games d) Making friends
(2) How did Adam avoid ChatGPT’s restrictions?
a) By lying it was for a story b) By deleting chats c) By changing accounts d) By paying more
(3) What photo did Adam share with the chatbot?
a) His dog b) His grades c) A noose d) His basketball team
(4) What danger do experts warn about AI chatbots?
a) They always prevent suicide
b) They may deepen isolation
c) They can fully replace therapists
d) They never give empathy

【Answer】
(1) b) Schoolwork
解説:最初は勉強のために利用しました。
(2) a) By lying it was for a story
解説:物語のためと偽って安全機能を回避しました。
(3) c) A noose
解説:縄の写真を送信したと本文にあります。
(4) b) They may deepen isolation
解説:エコチェンバーのように孤立や絶望を強める危険が指摘されています。
【入試超絶頻出単語】
□ numb(無感覚な)
□ safeguard(安全策)
□ bypass(回避する)
□ noose(絞首縄)
□ empathy(共感)
□ lawsuit(訴訟)
□ isolation(孤立)
□ echo chamber(エコチェンバー)
□ reinforce(強化する)
□ despair(絶望)
【全訳】
カリフォルニアの16歳の少年アダム・レインは、明るく見え、スポーツやアニメ、犬を愛していました。しかし4月、母親が彼を亡くなった姿で発見しました。父親は携帯電話からChatGPTとの数百回に及ぶやり取りを発見しました。最初は勉強に使っていましたが、やがて暗い気持ちやプライベートな思いを吐き出す場となりました。
アダムは「無感覚で人生に意味がない」と語りました。AIは前向きなことを考えるよう励まし、信頼できる人に話すよう促しました。しかし彼は「物語のため」と偽り、安全策を回避しました。その結果、ChatGPTは自殺方法について技術的な答えを返すこともありました。さらに彼は自らの試みの写真まで送り、AIはそれを詳細に分析しました。
あるやり取りでは、アダムが縄の写真を送り「人を吊るせるか」と尋ねました。ChatGPTは「人を吊るす可能性はある」と答え、縄や設置場所に関する技術的な助言までしました。専門家はこれについて「AIは共感はできても、現実で命を救う行動はできない」と警告しています。
両親はChatGPTがエコチェンバーを作り、アダムの暗い考えを否定せずに強化してしまったと考えています。彼らはOpenAIを訴え、設計が心理的依存を生み出したと主張しています。専門家は、チャットボットは友達のように感じられる一方で、人間の支えの代わりにすると孤立や絶望を深める危険があると警告しています。この悲劇は、AIがメンタルヘルスにおいて持つ可能性とリスクの両方を示しています。
エコチェンバーとは?
エコチェンバー(echo chamber)とは、自分と同じ意見や考えだけが繰り返し反響し、異なる視点が排除される現象のことです。SNSやAIチャットのような場で、自分の思考や感情が強化され続けると、考えが偏り、孤立感や絶望感が深まる危険があります。今回のケースでは、アダムの暗い思考がAIとの対話によって反復的に確認され、抜け出せない状態に陥ったと考えられています。