VOA リスニング
VOA Learning English 230802
Can AI Chatbots Learn to Be More Truthful?
この記事は
VOA Learning English のウェブサイト(
https://learningenglish.voanews.com/)の記事と問題を使用しています。
引用元の記事はこちらです。
Can AI Chatbots Learn to Be More Truthful?
このコンテンツには最後に日本語訳があります。
このコンテンツを使ったディクテーション学習もできます。
ディクテーションページへ
記事の概要
今回取りあげる
VOA Learning Englishに掲載された記事は、
AIチャットボットが生成するものの不確かさという問題に関する話題についてです。
このコンテンツには理解力を測るクイズがあります。
学習の例
まずはスクリプトを見ないで音声を聞きましょう。クイズがある場合は、音声を聞いたあとにクイズに挑戦することで、理解度をはかることができます。
そのあとに、スクリプトを見ながら音声を聞き、どこが聞き取れなかったのかを確認しましょう。
音声を聞きながら少しあとからマネをするシャドウイングも効果的です。
VOA Learning English の音声はゆっくりはっきり読まれますので、シャドウイングには最も適した素材です。音声のスピードを速くすることもできますが、英語の発音、イントネーション、間の取り方を学ぶことでリスニングだけではなく、スピーキングにも大きな効果が期待できますので、最初の何回かはそのままの音声でシャドウイングを試してみてください。
では、下の『再生』ボタンを押して、音声を聞きましょう。
「再生」を押すと出現するプレイヤーは, ボタンで読み上げスピードを調整できます。
プレイヤーの
ボタンを押すことでリピート再生します。
音声が遅すぎると感じる場合は ボタンを押して速度を上げて聞いてください。ナチュラルスピードよりも少し遅くなる程度に速度調整しています。
この記事には一分間に読む速さ(WPM)を調節した速読訓練ができます。速読訓練をする場合はボタンを押してください。
この記事には理解度をはかるクイズがあります。クイズをする場合はボタンをおしてください。
(本ページの画像ならびにOGP画像はCC0 またはパブリックドメインのものを使用しております。)
Newly-developed artificial intelligence (AI) systems have demonstrated the ability to perform at human-like levels in some areas. But one serious problem with the tools remains – they can produce false or harmful information repeatedly.
The development of such systems, known as “chatbots,” has progressed greatly in recent months. Chatbots have shown the ability to interact smoothly with humans and produce complex writing based on short, written commands. Such tools are also known as “generative AI” or “large language models.”
Chatbots are one of many different AI systems currently under development. Others include tools that can produce new images, video and music or can write computer programs. As the technology continues to progress, some experts worry that AI tools may never be able to learn how to avoid false, outdated or damaging results.
The term hallucination has been used to describe when chatbots produce inaccurate or false information. Generally, hallucination describes something that is created in a person’s mind, but is not happening in real life.
Daniela Amodei is co-creator and president of Anthropic, a company that produced a chatbot called Claude 2. She told the Associated Press, “I don’t think that there’s any model today that doesn’t suffer from some hallucination.”
Amodei added that such tools are largely built “to predict the next word.” With this kind of design, she said, there will always be times when the model gets information or context wrong.
Anthropic, ChatGPT-maker OpenAI and other major developers of such AI systems say they are working to make AI tools that make fewer mistakes. Some experts question how long that process will take or if success is even possible.
“This isn’t fixable,” says Professor Emily Bender. She is a language expert and director of the University of Washington’s Computational Linguistics Laboratory. Bender told the AP she considers the general relationship between AI tools and proposed uses of the technology a “mismatch.”
Indian computer scientist Ganesh Bagler has been working for years to get AI systems to create recipes for South Asian foods. He said a chatbot can generate misinformation in the food industry that could hurt a food business. A single “hallucinated” recipe element could be the difference between a tasty meal or a terrible one.
Bagler questioned OpenAI chief Sam Altman during an event on AI technology held in India in June. “I guess hallucinations in ChatGPT are still acceptable, but when a recipe comes out hallucinating, it becomes a serious problem,” Bagler said.
Altman answered by saying he was sure developers of AI chatbots would be able to get “the hallucination problem to a much, much better place” in the future. But he noted such progress could take years. “At that point we won’t still talk about these,” Altman said. “There’s a balance between creativity and perfect accuracy, and the model will need to learn when you want one or the other.”
Other experts who have long studied the technology say they do not expect such improvements to happen anytime soon.
The University of Washington’s Bender describes a language model as a system that has been trained on written data to “model the likelihood of different strings of word forms.” Many people depend on a version of this technology whenever they use the “autocomplete” tool when writing text messages or emails.
The latest chatbot tools try to take that method to the next level, by generating whole new passages of text. But Bender says the systems are still just repeatedly choosing the most predictable next word in a series. Such language models “are designed to make things up. That’s all they do,” she noted.
Some businesses, however, are not so worried about the ways current chatbot tools generate their results. Shane Orlick is head of marketing technology company Jasper AI. He told the AP, “Hallucinations are actually an added bonus.” He explained many chatbot users were pleased that the company’s AI tool had “created takes on stories or angles that they would have never thought of themselves.”
I’m Bryan Lynn.
The Associated Press and Reuters reported this story. Bryan Lynn adapted the reports for VOA Learning English.
Words in This Story
generate – v. to produce something
inaccurate – adj. not correct or exact
context – n. all the facts, opinions, situations, etc. relating to a particular thing or event
mismatch – n. a situation when people or things are put together but are not suitable for each other
recipe – n. a set of instructions and ingredients for preparing a particular food dish
bonus – n. a pleasant extra thing
angle – n. a position from which something is looked a
日本語訳
この英文には日本語訳があります。日本語訳はナラボー・プレスが作成しています。誤訳などありましたらご連絡ください。
【日本語訳】
Can AI Chatbots Learn to Be More Truthful?
AIチャットボットはより真実を学ぶことができるか?
Newly-developed artificial intelligence (AI) systems have demonstrated the ability to perform at human-like levels in some areas. But one serious problem with the tools remains – they can produce false or harmful information repeatedly.
新しく開発された人工知能(AI)システムは、ある分野では人間並みの能力を発揮しています。しかし、このツールには、誤った情報や有害な情報を繰り返し生成してしまうという深刻な問題が残されています。
The development of such systems, known as “chatbots,” has progressed greatly in recent months. Chatbots have shown the ability to interact smoothly with humans and produce complex writing based on short, written commands. Such tools are also known as “generative AI” or “large language models.”
「チャットボット」と呼ばれるこのようなシステムの開発は、ここ数か月で大きく進歩しました。チャットボットは人間とスムーズに対話し、短い文章による命令に基づいて複雑な文章を作成する能力を示しています。このようなツールは、「生成AI」や「大規模言語モデル」とも呼ばれています。
Chatbots are one of many different AI systems currently under development. Others include tools that can produce new images, video and music or can write computer programs. As the technology continues to progress, some experts worry that AI tools may never be able to learn how to avoid false, outdated or damaging results.
チャットボットは、現在開発中のさまざまなAIシステムのひとつです。その他にも、新しい画像や動画、音楽を生成したり、コンピュータープログラムを作成したりするツールもあります。技術の進歩が進むにつれ、AIツールは誤った、時代遅れの、あるいは有害な結果を避ける方法を学ぶことができなくなるのではないかと心配する専門家もいます。
The term hallucination has been used to describe when chatbots produce inaccurate or false information. Generally, hallucination describes something that is created in a person’s mind, but is not happening in real life.
“hallucination”という用語は、チャットボットが不正確な情報や偽の情報を生成することを説明するために使用されています。一般的に、hallucination とは、人の頭の中で作り出されたもので、現実には起こっていないことを表します。
Daniela Amodei is co-creator and president of Anthropic, a company that produced a chatbot called Claude 2. She told the Associated Press, “I don’t think that there’s any model today that doesn’t suffer from some hallucination.”
Daniela Amodeiは、Claude 2というチャットボットを制作したAnthropic社の共同制作者兼社長です。彼女はAP通信の取材に対し、「今日では、hallucinationに悩まされないモデルはないと思います」と述べました。
Amodei added that such tools are largely built “to predict the next word.” With this kind of design, she said, there will always be times when the model gets information or context wrong.
Amodeiは、このようなツールは主に 「次の言葉を予測するために」作られていると付け加えました。このような設計では、モデルが情報や文脈を見誤ることが必ずあると彼女は言います。
Anthropic, ChatGPT-maker OpenAI and other major developers of such AI systems say they are working to make AI tools that make fewer mistakes. Some experts question how long that process will take or if success is even possible.
Anthropic社、ChatGPTメーカーのOpenAI社、その他このようなAIシステムの主要な開発者は、ミスの少ないAIツールの開発に取り組んでいると述べています。専門家の中には、そのプロセスにどれくらいの時間がかかるのか、あるいは成功が可能なのかどうかさえ疑問視する人もいます。
“This isn’t fixable,” says Professor Emily Bender. She is a language expert and director of the University of Washington’s Computational Linguistics Laboratory. Bender told the AP she considers the general relationship between AI tools and proposed uses of the technology a “mismatch.”
「これは修正不可能です」と語るのは、Emily Bender教授です。彼女は言語の専門家で、ワシントン大学の計算言語学研究所の所長です。Bender教授はAP通信に対し、AIツールとその技術の利用提案との一般的な関係は「ミスマッチ」だと考えているとコメントしました。
Indian computer scientist Ganesh Bagler has been working for years to get AI systems to create recipes for South Asian foods. He said a chatbot can generate misinformation in the food industry that could hurt a food business. A single “hallucinated” recipe element could be the difference between a tasty meal or a terrible one.
インドのコンピューター科学者Ganesh Bagler氏は、AIシステムに南アジア料理のレシピを作らせることに何年も取り組んできました。彼によると、チャットボットは食品業界で誤った情報を生み出し、食品ビジネスを傷つける可能性があるとのこと。たった1つの「hallucination」レシピの要素が、おいしい食事かひどい食事かの分かれ目になるかもしれません。
Bagler questioned OpenAI chief Sam Altman during an event on AI technology held in India in June. “I guess hallucinations in ChatGPT are still acceptable, but when a recipe comes out hallucinating, it becomes a serious problem,” Bagler said.
Bagler氏は、6月にインドで開催されたAI技術に関するイベントで、OpenAIのチーフであるSam Altman氏に質問しました。「ChatGPTの幻覚はまだ許容範囲だと思いますが、レシピが幻覚を見せるのは深刻な問題です。」と述べています。
Altman answered by saying he was sure developers of AI chatbots would be able to get “the hallucination problem to a much, much better place” in the future. But he noted such progress could take years. “At that point we won’t still talk about these,” Altman said. “There’s a balance between creativity and perfect accuracy, and the model will need to learn when you want one or the other.”
Altmanは、AIチャットボットの開発者たちが、将来「hallucinationの問題をずっとずっと良いところへ」持っていけると確信していると答えました。しかし、そのような進歩には何年もかかると彼は指摘しました。「その時点で、我々はまだこれらについて話すことはないでしょう。創造性と完璧な正確さの間にはバランスがあります。」と述べました。
Other experts who have long studied the technology say they do not expect such improvements to happen anytime soon.
この技術を長年研究してきた他の専門家たちは、このような改善がすぐに起こるとは思っていないと言います。
The University of Washington’s Bender describes a language model as a system that has been trained on written data to “model the likelihood of different strings of word forms.” Many people depend on a version of this technology whenever they use the “autocomplete” tool when writing text messages or emails.
ワシントン大学のBenderは、言語モデルとは「異なる語形の文字列の可能性をモデル化する」ために、書かれたデータで訓練されたシステムだと説明します。テキストメッセージや電子メールを書くときに「オートコンプリート」ツールを使うたびに、多くの人がこの技術のバージョンに依存しています。
The latest chatbot tools try to take that method to the next level, by generating whole new passages of text. But Bender says the systems are still just repeatedly choosing the most predictable next word in a series. Such language models “are designed to make things up. That’s all they do,” she noted.
最新のチャットボットツールは、全く新しい文章を生成することで、その方法を次のレベルに持っていこうとしています。しかしベンダーによれば、システムはまだ、一連の中で最も予測可能な次の単語を繰り返し選んでいるだけだとのこと。そのような言語モデルは、「物事をでっち上げるように設計されています。それがすべてです」とベンダー氏は述べました。
Some businesses, however, are not so worried about the ways current chatbot tools generate their results. Shane Orlick is head of marketing technology company Jasper AI. He told the AP, “Hallucinations are actually an added bonus.” He explained many chatbot users were pleased that the company’s AI tool had “created takes on stories or angles that they would have never thought of themselves.”
しかし、現在のチャットボット・ツールが結果を生み出す方法について、それほど心配していない企業もあります。マーケティング・テクノロジー企業Jasper AIの代表であるShane Orlick氏です。彼はAP通信に、「hallucinationsは実際にはおまけです」と述べました。彼は、多くのチャットボットユーザーが、同社のAIツールが「自分たちでは思いつかないようなストーリーやアングルのテイクを生み出した」ことを喜んでいると説明しました。
I’m Bryan Lynn.
Bryan Lynnです。
The Associated Press and Reuters reported this story. Bryan Lynn adapted the reports for VOA Learning English.
この記事はAP通信とロイター通信が伝えました。Bryan LynnはVOAラーニング・イングリッシュのためにレポートを脚色しました。
【VOA Learning Englishのバックナンバー】
VOA基本英単語1541
上記の単語が難しい、より基本的な単語を学習したい方は、VOAが厳選した基本単語1500語があります。リンク先のページには絶対に覚えてほしい基本単語がリストとして掲載されています。ナラボー・プレスが作成した例文の音声も聞くことができます。
VOA基本単語リスト
ナラボー・プレスはVOA基本単語をもとに、『VOA基本英単語1541』を発刊しています。音声の例文などをご覧になりたい方はぜひ書籍のご購入をご検討ください。
お便りお待ちしております。
ナラボー・プレスは、ユーザーにみなさまにとって便利で役に立つ英語学習サイトを目指しています。
こんな学習がしたい、学習素材が欲しい、というご要望がありましたらぜひ、ご連絡ください。
またはナラボー・プレスが掲載しているVOAの記事で分からない箇所があれば、お気軽にご質問ください。
お問い合わせはお問い合わせフォームからお願いいたします。
【お問い合わせフォーム:担当土屋】