はじめに
2023年7月6日に公開された6 Minute Englishです。以下サイトで聞けます。
Vocarulary(単語)
単語 | 品詞 | 意味 |
plausible | 形容詞 | まことしやかな、もっともらしい |
chatbot | 名詞 | チャット・ボット |
book | 動詞 | 予約する |
grammatical | 形容詞 | 文法の、文法的に正しい |
reliable | 形容詞 | 信頼できる、信頼性のある |
sensible | 形容詞 | 分別[良識]ある、思慮深い |
cognitive | 形容詞 | 認識[認知]力[作用]の |
interact | 動詞 | 〔人と〕交流する、ふれあう |
entity | 名詞 | 〔独立した〕存在[実在]物 |
日本語訳(和訳)
Introduction
How human are chatbots? Do they really know what we are thinking, and should we fear them?
チャットボットはどれほど人間的なのでしょうか? 彼らは私たちが何を考えているかを本当に知っているのでしょうか、そして私たちは彼らを恐れるべきでしょうか?
That’s what Rob and Neil are talking about, and they teach you some useful vocabulary along the way.
それがロブとニールが話していることであり、途中で役に立つ語彙をいくつか教えてくれます。
This week’s question(今週の質問)
The first computer program that allowed some kind of plausible conversation between humans and machines was invented in 1966, but what was it called?
人間と機械の間で何らかのもっともらしい会話を可能にする最初のコンピューター プログラムは 1966 年に発明されました。しかし、それは何と呼ばれていましたか?
a) ALEXA
a) アレクサ
b) ELIZA
b) イライザ
c) PARRY
c) パリー
Vocabulary
sophisticated 洗練された
describes technology that is more advanced and complex
より高度で複雑なテクノロジーを説明する
coherent 筋の通った
clear, carefully considered and sensible
明確で、慎重に検討され、賢明である
authoritative 権威ある
respected, accurate and important sounding
尊敬され、正確で重要な響き
on guard 用心する
careful and alert
慎重で警戒心が強い
provoke 挑発する
do something that causes a reaction from someone
誰かの反応を引き起こす何かをする
sentient 感覚のある
living thing that experiences feelings
感情を経験する生き物
TRANSCRIPT(トランスクリプト)
Note: This is not a word-for-word transcript.
注: これは逐語録ではありません。
Neil
Hello. This is 6 Minute English from BBC Learning English. I’m Neil.
こんにちは。 BBC Learning English の 6 Minute English です。 私はニールです。
Rob
And I’m Rob.
そして私はロブです。
Neil
Now, I’m sure most of us have interacted with a chatbot. These are bits of computer technology that respond to text with text or respond to your voice. You ask it a question and it usually comes up with an answer!
さて、私たちのほとんどはチャットボットと対話したことがあると思います。 これらは、テキストにテキストで応答したり、音声に応答したりするコンピューター技術の一部です。 質問すると、たいてい答えが返ってきます。
Rob
Yes, it’s almost like talking to another human, but of course it’s not – it’s just a clever piece of technology. It is becoming more sophisticated – more advanced and complex, but could they replace real human interaction altogether?
はい、まるで他の人間と話しているようなものですが、もちろんそうではありません。これは単なる賢いテクノロジーです。 それはますます洗練され、より高度で複雑になってきていますが、実際の人間のやりとりを完全に置き換えることはできるでしょうか?
Neil
We’ll discuss that more in a moment and find out if chatbots really think for themselves. But first I have a question for you, Rob. The first computer program that allowed some kind of plausible conversation between humans and machines was invented in 1966, but what was it called? Was it:
これについては後ほど詳しく説明し、チャットボットが本当に自分で考えるかどうかを確認します。 でもその前に、ロブ、あなたに質問があります。 人間と機械の間で何らかのもっともらしい会話を可能にする最初のコンピューター プログラムは 1966 年に発明されました。しかし、それは何と呼ばれていましたか? そうでしたか:
a) ALEXA
a) アレクサ
b) ELIZA
b) イライザ
c) PARRY
c) パリー
Rob
It’s not Alexa – that’s too new – so I’ll guess c) PARRY.
Alexa ではありません – それは新しすぎます – だから、c) PARRY だと思います。
Neil
I’ll reveal the answer at the end of the programme. Now, the old chatbots of the 1960s and 70s were quite basic, but more recently, the technology is able to predict the next word that is likely to be used in a sentence, and it learns words and sentence structures.
答えは番組の最後に発表します。 1960 年代と 70 年代の古いチャットボットは非常に基本的なものでしたが、最近では、このテクノロジーは文の中で次に使用される可能性のある単語を予測し、単語と文の構造を学習することができます。
Rob
It’s clever stuff. I’ve experienced using them when talking to my bank – or when I have problems trying to book a ticket on a website. I no longer phone a human but I speak to a ‘virtual assistant’ instead. Probably the most well-known chatbot at the moment is ChatGTP.
それは賢いことです。 私は銀行に問い合わせるときや、ウェブサイトでチケットを予約する際に問題が発生したときにこれらを使用した経験があります。 私はもう人間に電話をかけず、代わりに「仮想アシスタント」と話します。 おそらく現時点で最もよく知られているチャットボットは ChatGTP です。
Neil
It is. The claim is it’s able to answer anything you ask it. This includes writing students’ essays. This is something that was discussed on the BBC Radio 4 programme, Word of Mouth. Emily M Bender, Professor of Computational Linguistics at the University of Washington, explained why it’s dangerous to always trust what a chatbot is telling us…
そうです。 主張は、あなたが尋ねれば何でも答えることができるということです。 これには、生徒のエッセイを書くことも含まれます。 これは、BBC Radio 4 のプログラム「Word of Mouth」で議論されたことです。 ワシントン大学の計算言語学教授であるエミリー M ベンダーは、チャットボットの発言を常に信頼することが危険である理由を説明しました。
Emily M Bender, Professor of Computational Linguistics at the University of Washington
We tend to react to grammatical fluent coherent seeming text as authoritative and reliable and valuable – and we need to be on guard against that, because what’s coming out of ChatGTP is none of that.
私たちは、文法的に流暢で一貫性のあるように見えるテキストに対して、権威があり、信頼でき、価値があるものとして反応する傾向があります。そして、ChatGTP から出てくるものはそのどれでもないので、私たちはそれに警戒する必要があります。
Rob
So, Professor Bender says that well written text that is coherent – that means it’s clear, carefully considered and sensible – makes us think what we are reading is reliable and authoritative. So it is respected, accurate and important sounding.
したがって、ベンダー教授は、首尾一貫した、よく書かれた文章、つまり、明確で、慎重に検討され、理にかなっている文章は、私たちが読んでいる内容が信頼でき、権威あるものであると思わせるのだと述べています。 したがって、それは尊重され、正確で重要な響きです。
Neil
Yes, chatbots might appear to write in this way, but really, they are just predicting one word after another, based on what they have learnt. We should, therefore, be on guard – be careful and alert about the accuracy of what we are being told.
確かに、チャットボットはこのように書いているように見えるかもしれませんが、実際には、学習した内容に基づいて、単語を次々と予測しているだけです。 したがって、私たちは用心深く、言われていることの正確さについて注意を払う必要があります。
Rob
One concern is that chatbots – a form of artificial intelligence – work a bit like a human brain in the way it can learn and process information. They are able to learn from experience – something called deep learning.
懸念の 1 つは、人工知能の一種であるチャットボットが、情報を学習して処理する点で人間の脳に似た働きをすることです。 彼らは経験から学ぶことができます – ディープラーニングと呼ばれるものです。
Neil
A cognitive psychologist and computer scientist called Geoffrey Hinton, recently said he feared that chatbots could soon overtake the level of information that a human brain holds. That’s a bit scary isn’t it?
認知心理学者でコンピュータ科学者のジェフリー・ヒントン氏は最近、チャットボットが人間の脳が保持する情報レベルを間もなく追い越すのではないかと懸念していると述べた。 それはちょっと怖いですよね?
Rob
For now, chatbots can be useful for practical information, but sometimes we start to believe they are human, and we interact with them in a human-like way. This can make us believe them even more. Professor Emma Bender, speaking on the BBC’s Word of Mouth programme, explains why we meet feel like that…
今のところ、チャットボットは実用的な情報を得るのに役立ちますが、時々私たちはチャットボットが人間であると信じ始め、人間のような方法でチャットボットと対話します。 そうすることで、私たちは彼らの言葉をさらに信じることができます。 BBCの口コミ番組でエマ・ベンダー教授が、なぜ私たちが会うとそのように感じられるのかを説明しています…
Emily M Bender, Professor of Computational Linguistics at the University of Washington
I think what’s going on there is the kinds of answers you get depend on the questions you put in, because it’s doing likely next word, likely next word, and so if as the human interacting with the machine you start asking it questions about ‘how do you feel, you know, Chatbot?’ ‘What do you think of this?’ And. ‘what are your goals?’ You can provoke it to say things that sound like what a sentient entity would say… We are really primed to imagine a mind behind language whenever we encounter language. And so, we really have to account for that when we’re making decisions about these.
そこで何が起こっているのかは、あなたが入力した質問に応じて得られる答えの種類だと思います。なぜなら、機械はおそらく次の単語、おそらく次の単語を実行しているからです。したがって、人間が機械と対話するとき、あなたが機械に「どのように」という質問をし始めた場合、 「チャットボット、感じますか?」「これについてどう思いますか?」そして。 「あなたの目標は何ですか?」 感覚を持つ存在が言いそうなことを言うようにそれを刺激することができます…私たちは言語に出会うたびに、言語の背後にある心を想像するようになっています。 したがって、これらについて決定を下す際には、それを考慮する必要があります。
Neil
So, although a chatbot might sound human, we really just ask it things to get a reaction – we provoke it – and it answers only with words it’s learned to use before, not because it has come up with a clever answer. But it does sound like a sentient entity – sentient describes a living thing that experiences feelings.
したがって、チャットボットは人間のように聞こえるかもしれませんが、実際には反応を得るために質問しているだけであり、挑発しているだけであり、賢い答えを考え出したからではなく、以前に使用を学習した言葉でのみ応答します。 しかし、それは感覚を持った存在のように聞こえます。感覚を持っているとは、感情を経験する生き物を指します。
Rob
As Professor Bender says, we imagine that when something speaks there is a mind behind it. But sorry, Neil, they are not your friend, they are just machines!
ベンダー教授が言うように、何かが話すとき、私たちはその背後に心が存在すると想像します。 でもごめんね、ニール、彼らはあなたの友達じゃない、ただの機械だよ!
Neil
It’s strange then that we sometimes give chatbots names. Alexa, Siri… and earlier I asked you what the name was for the first ever chatbot.
だとすると、私たちがチャットボットに名前を付けることがあるのは奇妙です。 アレクサ、シリ…そして先ほど、史上初のチャットボットの名前は何なのかと尋ねました。
Rob
And I guessed it was PARRY. Was I right?
そして私はそれがパリーだったと思いました。 私は正しかったでしょうか?
Neil
You guessed wrong, I’m afraid. PARRY was an early form of chatbot from 1972, but the correct answer was ELIZA. It was considered to be the first ‘chatterbot’ – as it was called then, and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
残念ですが、あなたの推測は間違っていました。 PARRY は 1972 年に登場した初期のチャットボットですが、正解は ELIZA でした。 これは最初の「チャターボット」(当時はそう呼ばれていた)と考えられており、マサチューセッツ工科大学のジョセフ・ワイゼンバウムによって開発されました。
Rob
Fascinating stuff. OK, now let’s recap some of the vocabulary we highlighted in this programme. Starting with sophisticated which can describe technology that is advanced and complex.
魅力的なもの。 さて、このプログラムで取り上げた語彙のいくつかを要約しましょう。 高度で複雑なテクノロジーを表すことができる「洗練された」から始まります。
Neil
Something that is coherent is clear, carefully considered and sensible.
一貫性のあるものとは、明確で、慎重に検討され、理にかなったものです。
Rob
Authoritative – so it is respected, accurate and important sounding.
権威ある – そのため尊敬され、正確で重要な響きを持ちます。
Neil
When you are on guard you must be careful and alert about something – it could be accuracy of what you see or hear, or just being aware of the dangers around you.
警戒しているときは、何かについて注意し、警戒しなければなりません。それは、見たり聞いたりすることの正確さ、または単に周囲の危険に気づいていることかもしれません。
Rob
To provoke means to do something that causes a reaction from someone.
「挑発」とは、誰かの反応を引き起こすようなことをすることを意味します。
Neil
Sentient describes something that experiences feelings – so it’s something that is living. Once again, our six minutes are up. Goodbye.
センティエントとは、感情を経験するものを指します。つまり、それは生きているものです。 またしても 6 分が経過しました。 さようなら。
Rob
Bye for now.
またね。
コメント