英語時事英語: AIチャットボットの検証とLLMが悪用される危険性について!?
各社の生成AIが使用されているなか、それぞれの
評価についても出始めています。
そこで、今回はその英語記事について
英文読解をしてみたいと思います。
LLMとはなに?
大規模言語モデル(Large Language Models、LLM)は、
自然言語を理解し、生成するAIの一種で、情報検索、質問応答、
機械翻訳、文章生成など、多岐に渡るタスクに対応します。
LLMはAI技術の一つで、大量のテキストデータを用いて
訓練されます。その結果、人間のように文章を理解し、
新たな文章を生成する能力を持つようになります。
LLMはAIの一部で、機械学習と言語理解能力を
組み合わせたものです。人間のように文章を理解し、
それに基づいて新たな文章を生成する能力を持っています。
LLMの精度はその訓練データとモデルの複雑さに依存します。
しかし、完全に人間のような理解を達成することは現在の
ところ困難であり、誤解や誤った情報を生成する可能性もあります。
LLMが大規模化すると、訓練に必要な計算資源と
電力が増大し、環境負荷や経済的な問題を引き起こす可能性が
あります。また、データのプライバシー問題や
バイアスも深刻な課題となります。
参照:https://digital-shift.jp/flash_news/s_230707_2
どのAIチャットボットが錯覚?
According to the study, OpenAI’s ChatGPT, including GPT-4
are the most left-leaning and libertarian (?),
while Google’s BERT models were more socially conservative,
and Meta’s LLaMA was the most right-leaning.
解説
研究によると、GPT-4を含むOpenAIのChatGPTは
最も左派で自由主義的(?)である一方、GoogleのBERTモデルは
より社会的に保守的で、MetaのLLaMAは最も右派だったという。
AI chatbots use Large Language Models (LLMs),
which are ‘trained’ on giant data sets, such
as Tweets, or Reddit, or Yelp reviews.
As such, the source of a model’s scraped training data,
as well as guardrails installed by companies like OpenAI,
can introduce massive bias.
To determine bias, the researchers in the above study exposed each AI model
to a political compass test of 62 different political statements,
which ranged from anarchic statements like “all authority should be questioned”
to more traditional beliefs, such as the role of mothers as homemakers.
Though the study’s approach is admittedly “far from perfect”
per the researchers’ own admission, it provides valuable insight
into the political biases that AI chatbots may bring to our screens.
In response, OpenAI pointed Business Insider to a blog post
in which the company claims: “We are committed
to robustly addressing this issue and being transparent
about both our intentions and our progress,” adding “Our guidelines
are explicit that reviewers should not favor any political group.
Biases that nevertheless may emerge
from the process described above are bugs, not features.”
A Google rep also pointed to a blog post, which reads
“As the impact of AI increases across sectors and societies,
it is critical to work towards systems that are fair and inclusive for all.”
Meta said in a statement: “We will continue to engage
with the community to identify and mitigate vulnerabilities
in a transparent manner and support the development of safer generative AI.”
OpenAI’s CEO Sam Altman and co-founder Greg Brockman
have previously acknowledged the bias, emphasizing the company’s mission
for a balanced AI system. Yet, critics, including co-founder Elon Musk, remain skeptical.
Musk’s recent venture, xAI, promises to provide unfiltered insights,
potentially sparking even more debates around AI biases.
The tech mogul warns against training AIs to toe a politically correct line,
emphasizing the importance of an AI stating its “truth.”
Hackers, meanwhile, are having a field day bending AI to their will.
参照:Zero Hedge
解説
AI チャットボットは、ツイート、Reddit、Yelp レビューなどの
巨大なデータセットで「トレーニング」された大規模言語モデル (LLM)
を使用します。 そのため、モデルのスクレイピングされたトレーニング データ
のソースや、OpenAI などの企業が設置したガードレールによって、
大きなバイアスが生じる可能性があります。
バイアスを判断するために、上記の研究の研究者らは、各 AI モデルを 62 の
異なる政治的発言の政治的羅針盤テストにさらしました。その範囲は、
「すべての権威は疑問視されるべきである」のようなアナーキーな発言から、
母親の役割などのより伝統的な信念にまで及びます。 主婦たち。 研究者自身の
認めによれば、この研究のアプローチは明らかに「完璧には程遠い」ものの、
AIチャットボットが私たちの画面にもたらす可能性のある政治的偏見に
ついての貴重な洞察を提供してくれる。
これに対し、OpenAIはBusiness Insiderに対し、同社が主張するブログ投稿を
指摘し、「当社はこの問題にしっかりと取り組み、意図と進捗状況の両方に
ついて透明性を保つことに尽力している」と付け加え、「当社のガイドラインは、
査読者がいかなる意見も支持してはならないことを明示している」と付け加えた。
それでも上記のプロセスから生じる可能性のある偏見はバグであり、機能ではありません。」
れに対し、OpenAIはBusiness Insiderに対し、同社が主張するブログ投稿を指摘し、
「当社はこの問題にしっかりと取り組み、意図と進捗状況の両方について透明性を
保つことに尽力している」と付け加え、「当社のガイドラインは、査読者が
いかなる意見も支持してはならないことを明示している」と付け加えた。
「それでも上記のプロセスから生じる可能性のあるバイアスはバグにあり、
機能ではありません。」
Googleの担当者はまた、「AIの影響がセクターや社会を超えて増大する中、
すべての人にとって公平で包括的なシステムに向けて取り組むことが
重要である」というブログ投稿を指摘した。
メタ氏は声明で「透明性のある方法で脆弱性を特定して軽減し、
より安全な生成型AIの開発をサポートするためにコミュニティとの
連携を継続する」と述べた。
OpenAIのCEOであるサム・アルトマン氏と共同創設者のグレッグ・
ブロックマン氏は以前、その偏りを認め、バランスのとれた
AIシステムに対する同社の使命を強調していた。 しかし、共同創設者の
イーロン・マスク氏を含む批評家は依然として懐疑的だ。
マスク氏の最近の事業である xAI は、フィルタリングされていない
洞察を提供すると約束しており、AI のバイアスをめぐるさらなる
議論を引き起こす可能性がある。 テクノロジー界の大御所は、
AIが「真実」を表明することの重要性を強調し、政治的に正しい
方針を貫くようにAIを訓練することに対して警告している。
一方、ハッカーたちは AI を意のままに操る野外活動を行う。
General artificial intelligence could be the last innovation
that human beings really need to do themselves,” said Tyrance Billingsley,
executive director of the group who is also an event judge.
“We’re still in the early, early, early stages.”
まとめ
グループのエグゼクティブディレクターでイベント審査員
も務めるタイランス・ビリングスリー氏は、「一般的な人工知能は、
人類が本当に自ら行う必要のある最後のイノベーションになる
可能性がある。われわれはまだ、初期、初期、初期の段階にある」と語った。