正しい英語の習得方法を提供しています!

英語時事英語: AIチャットボットの検証とLLMが悪用される危険性について!?

各社の生成AIが使用されているなか、それぞれの

評価についても出始めています。

そこで、今回はその英語記事について

英文読解をしてみたいと思います。

LLMとはなに?

大規模言語モデル(Large Language Models、LLM)は、

自然言語を理解し、生成するAIの一種で、情報検索、質問応答、

機械翻訳、文章生成など、多岐に渡るタスクに対応します。

LLMはAI技術の一つで、大量のテキストデータを用いて

訓練されます。その結果、人間のように文章を理解し、

新たな文章を生成する能力を持つようになります。

LLMはAIの一部で、機械学習と言語理解能力を

組み合わせたものです。人間のように文章を理解し、

それに基づいて新たな文章を生成する能力を持っています。

LLMの精度はその訓練データとモデルの複雑さに依存します。

しかし、完全に人間のような理解を達成することは現在の

ところ困難であり、誤解や誤った情報を生成する可能性もあります。

LLMが大規模化すると、訓練に必要な計算資源と

電力が増大し、環境負荷や経済的な問題を引き起こす可能性が

あります。また、データのプライバシー問題や

バイアスも深刻な課題となります。

参照:https://digital-shift.jp/flash_news/s_230707_2

どのAIチャットボットが錯覚?

According to the study, OpenAI’s ChatGPT, including GPT-4

are the most left-leaning and libertarian (?),

while Google’s BERT models were more socially conservative,

and Meta’s LLaMA was the most right-leaning.

解説

研究によると、GPT-4を含むOpenAIのChatGPTは

最も左派で自由主義的(?)である一方、GoogleのBERTモデルは

より社会的に保守的で、MetaのLLaMAは最も右派だったという。

AI chatbots use Large Language Models (LLMs),

which are ‘trained’ on giant data sets, such

as Tweets, or Reddit, or Yelp reviews.

As such, the source of a model’s scraped training data,

as well as guardrails installed by companies like OpenAI,

can introduce massive bias.

To determine bias, the researchers in the above study exposed each AI model

to a political compass test of 62 different political statements,

which ranged from anarchic statements like “all authority should be questioned”

to more traditional beliefs, such as the role of mothers as homemakers.

Though the study’s approach is admittedly “far from perfect”

per the researchers’ own admission, it provides valuable insight

into the political biases that AI chatbots may bring to our screens.

In response, OpenAI pointed Business Insider to a blog post

in which the company claims: “We are committed

to robustly addressing this issue and being transparent

about both our intentions and our progress,” adding “Our guidelines

are explicit that reviewers should not favor any political group.

Biases that nevertheless may emerge

from the process described above are bugs, not features.”

A Google rep also pointed to a blog post, which reads

“As the impact of AI increases across sectors and societies,

it is critical to work towards systems that are fair and inclusive for all.”

Meta said in a statement: “We will continue to engage

with the community to identify and mitigate vulnerabilities

in a transparent manner and support the development of safer generative AI.”

OpenAI’s CEO Sam Altman and co-founder Greg Brockman

have previously acknowledged the bias, emphasizing the company’s mission

for a balanced AI system. Yet, critics, including co-founder Elon Musk, remain skeptical.

Musk’s recent venture, xAI, promises to provide unfiltered insights,

potentially sparking even more debates around AI biases.

The tech mogul warns against training AIs to toe a politically correct line,

emphasizing the importance of an AI stating its “truth.”

Hackers, meanwhile, are having a field day bending AI to their will.

参照:Zero Hedge

https://www.zerohedge.com/technology/study-reveals-which-ai-chatbot-most-woke-while-hackers-trick-llms-bad-math

解説

AI チャットボットは、ツイート、Reddit、Yelp レビューなどの

巨大なデータセットで「トレーニング」された大規模言語モデル (LLM)

を使用します。 そのため、モデルのスクレイピングされたトレーニング データ

のソースや、OpenAI などの企業が設置したガードレールによって、

大きなバイアスが生じる可能性があります。

バイアスを判断するために、上記の研究の研究者らは、各 AI モデルを 62 の

異なる政治的発言の政治的羅針盤テストにさらしました。その範囲は、

「すべての権威は疑問視されるべきである」のようなアナーキーな発言から、

母親の役割などのより伝統的な信念にまで及びます。 主婦たち。 研究者自身の

認めによれば、この研究のアプローチは明らかに「完璧には程遠い」ものの、

AIチャットボットが私たちの画面にもたらす可能性のある政治的偏見に

ついての貴重な洞察を提供してくれる。

これに対し、OpenAIはBusiness Insiderに対し、同社が主張するブログ投稿を

指摘し、「当社はこの問題にしっかりと取り組み、意図と進捗状況の両方に

ついて透明性を保つことに尽力している」と付け加え、「当社のガイドラインは、

査読者がいかなる意見も支持してはならないことを明示している」と付け加えた。

それでも上記のプロセスから生じる可能性のある偏見はバグであり、機能ではありません。」

れに対し、OpenAIはBusiness Insiderに対し、同社が主張するブログ投稿を指摘し、

「当社はこの問題にしっかりと取り組み、意図と進捗状況の両方について透明性を

保つことに尽力している」と付け加え、「当社のガイドラインは、査読者が

いかなる意見も支持してはならないことを明示している」と付け加えた。

「それでも上記のプロセスから生じる可能性のあるバイアスはバグにあり、

機能ではありません。」

Googleの担当者はまた、「AIの影響がセクターや社会を超えて増大する中、

すべての人にとって公平で包括的なシステムに向けて取り組むことが

重要である」というブログ投稿を指摘した。

メタ氏は声明で「透明性のある方法で脆弱性を特定して軽減し、

より安全な生成型AIの開発をサポートするためにコミュニティとの

連携を継続する」と述べた。

OpenAIのCEOであるサム・アルトマン氏と共同創設者のグレッグ・

ブロックマン氏は以前、その偏りを認め、バランスのとれた

AIシステムに対する同社の使命を強調していた。 しかし、共同創設者の

イーロン・マスク氏を含む批評家は依然として懐疑的だ。

マスク氏の最近の事業である xAI は、フィルタリングされていない

洞察を提供すると約束しており、AI のバイアスをめぐるさらなる

議論を引き起こす可能性がある。 テクノロジー界の大御所は、

AIが「真実」を表明することの重要性を強調し、政治的に正しい

方針を貫くようにAIを訓練することに対して警告している。

一方、ハッカーたちは AI を意のままに操る野外活動を行う。

General artificial intelligence could be the last innovation

that human beings really need to do themselves,” said Tyrance Billingsley,

executive director of the group who is also an event judge.

“We’re still in the early, early, early stages.”

まとめ

グループのエグゼクティブディレクターでイベント審査員

も務めるタイランス・ビリングスリー氏は、「一般的な人工知能は、

人類が本当に自ら行う必要のある最後のイノベーションになる

可能性がある。われわれはまだ、初期、初期、初期の段階にある」と語った。

サム・アルトマン(OpenAI創設者)のWiki的経歴とAIの社会影響懸念の英語記事を解説!

プロフィール


Yoshi

英語が苦手だった50代のおじさんが一念発起して英語学習を再開しました。もちろん留学経験とか全くないおじさんが今ではふつうにリスニングや会話ができるようになりました。ちなみにTOEICもこの年で900点を突破しました。このブログではもともと英語が苦手だったおじさんが英語が好きになった過程と教材そして情報を提供しています。

おすすめ英語教材トップ5!
(TOEIC対策アプリ)スタディサプリEnglish
たった60日で英語が話せる!世界の七田式英語教材7+English
トーキング・マラソン
RIZAP ENGLISH
★英語教材の定番★【アルクのヒアリングマラソン】
TOEIC完全攻略900点コース
GOOMIES
最近の投稿
英語教材情報