あなたが考えさせるAIについての11の引用

著者: Laura McKinney
作成日: 3 4月 2021
更新日: 26 六月 2024
Anonim
あなたのことが好きだなんて言えないんです。feat 杏沙子/コバソロ
ビデオ: あなたのことが好きだなんて言えないんです。feat 杏沙子/コバソロ

コンテンツ


出典:Lin Shao Hua / Dreamstime.com

取り除く:

AIの進歩は避けられないものであり、それが人類にとって何を意味するかは完全には明らかではありません。私たちは素晴らしい未来を期待できると信じている人もいれば、ロボットの君主に取って代わられる道を進んでいると思う人もいます。 3番目の視点は、リスクを認識しているが、リスクを管理可能と見なす視点です。

AIとその変革の可能性についてよく耳にします。しかし、それが人類の未来にとって何を意味するかは完全には明らかではありません。人生は改善されると信じている未来派もいれば、深刻な脅威にさらされていると考える未来派もいます。また、中央にはさまざまな位置があります。 11人の専門家によるさまざまなテイクを紹介します。

1. 「これまでのところ、人工知能の最大の危険は、人々がそれを理解するには早すぎる結論を下すことです。」 –エリエゼル・ユドコフスキー

これは、マシンインテリジェンスリサーチインスティテュート(MIRI)の「グローバルリスクにおけるポジティブおよびネガティブファクターとしての人工知能」というタイトルのYudkowsyの2002年のレポートの最初の文です。 AIという用語は、当時とほぼ同じ程度に広まったわけではありませんが、技術の機能と限界に関する理解不足の問題が残っています。実際、過去数年間で、AIを単に理解できるだけでなく説明可能にすることを求める動きが増えてきました。

2. 「重要なのは、AIについて説明可能、公正、安全、そして系統を持つことです。つまり、AIのアプリケーションがどのように発展したか、そしてその理由を誰でも非常に簡単に見ることができます。」 –ジニーロメッティ


IBMのCEOは、2019年1月9日のCESでの基調講演でその声明を発表しました。 IBMは、企業にコンピューティングサービスを提供するだけでなく、機械学習システムを構築している人々へのバイアスを軽減するための協議を行うことで、この問題の解決に向けて活動しています。 (説明可能なAIの詳細については、AIの説明をご覧ください。)

バグやストレスなし-あなたの人生を破壊することなく人生を変えるソフトウェアを作成するためのステップバイステップガイド

誰もソフトウェアの品質に関心がない場合、プログラミングスキルを向上させることはできません。

3. "究極 検索エンジン、クエリを入力したときに必要なものを正確に理解し、正確なものを返します コンピュータサイエンス 人工知能と呼んでいます。それはそれがスマートであることを意味します、そして私たちはスマートなコンピューターを持つことから長い道のりです。」 –ラリーペイジ

当時のGoogleの共同設立者兼CEOは、2002年11月にPBS NewsHourセグメントで「Google:可能性のある検索エンジン」と題してこう語りました。社会は、これを使用に追加する最も有用な動詞としてランク付けしましたが、Merriam-Websterの同類によって認識されるにはさらに数年かかるでしょう。しかし、早い段階から、同社はAIの活用に関心を示しました。

4. 「すべてのコストでAIの言及または意味を避けてください。武器化されたAIは、おそらくAIの最も敏感なトピックの1つです。これは、Googleに損害を与えるすべての方法を見つけるためのメディアにとって赤身です。」 – GoogleのAIのパイオニアであるFei Fei Liは、Project Mavenへの同社の関与について同僚に


Googleは、AIの主要なプレーヤーであることにはマイナス面があることを発見しました。 2017年7月、国防総省はProject Mavenの目標を発表しました。防衛省次官補のオフィスでのuk報、監視、偵察作戦部隊-戦闘機支援のアルゴリズム戦争クロス機能チームのチーフであるドリュー・キューカー海兵隊大佐は、今年の目標を述べました。コンピューターは共生的に動作して、武器システムがオブジェクトを検出する能力を高めます。」

Googleはこのベンチャーのパートナーでしたが、上記の引用で示されているように、Googleの従業員はそれを好まなかった。最終的に、会社は圧力に屈し、2018年6月に国防総省との契約を更新しないと発表しました。 The Interceptが報告したように:

Googleは、3月にGizmodoとThe Interceptによって契約が明らかにされて以来、圧力が高まっています。約12人の従業員が抗議で辞任し、数千人が「Googleは戦争に関与してはならない」と宣言する公開状に署名しました。700人以上の学者も「GoogleはDoDとの契約を終了し、 Googleとその親会社であるAlphabetは、軍事技術を開発せず、収集した個人データを軍事目的で使用しないことを約束します。」

5. 「人工知能は2029年頃までに人間のレベルに到達します。さらに2045年まで続きます。私たちの文明の人間の生物学的機械知能を10億倍に増やします。」 –レイ・カーツワイル

未来派と発明家は、2012年のインタビューで、コンピューティングパワーによる不滅の達成について語りました。彼は「10億倍」の数字を確認し、次のように説明しました。「これは、物理学からこの比fromを借りて、特異性、人類の歴史における重大な破壊的変化と呼ぶ非常に特異な変化です。明らかに、彼は楽観的な未来派の一人であり、大きな利益となる破壊的な変化を描いています。彼はさらに、不滅が手の届くところにあると信じている理由を説明しました。「私たちは毎年、残りの平均余命に年を追加します。時間が経過してる。"

6. 「人工知能の到来の最大の利点は、AIが人類の定義に役立つことです。私たちが誰であるかを伝えるにはAIが必要です。」 –ケビンケリー

Wiredの共同創始者は、2016年の本「避けられない:私たちの未来を形作る12の技術力を理解する」で、この抜本的な主張を書きました。ロボットの自動化と仕事の台頭を想像しながら、彼は拒否の繰り返しサイクルになりますが、進歩は避けられないため、それに応じて適応する必要があります。 IBMのインタビューで説明したように、「AIを介して、生物学的には存在せず、人間の思考とは異なる多くの新しいタイプの思考を発明します」と彼が強調するコンピュータークラウドへの銀の裏張り「したがって、このインテリジェンスは人間の思考に取って代わるものではなく、それを補強するものです。」

7. 「AIの本当のリスクは悪意ではなく、能力です。 A スーパーインテリジェントAI その目標を達成するのに非常に優れており、それらの目標が私たちの目標と一致していない場合、私たちは困っています。あなたは恐らく悪意を持ってアリを踏む邪悪なアリ嫌いではありませんが、水力発電のグリーンエネルギープロジェクトを担当していて、地域に蟻塚が浸水している場合、アリにとってはあまりにも悪いです。それらのアリの立場に人類を置かないようにしましょう。」 –スティーブン・ホーキング

この引用は、2015年初頭にさかのぼります。RedditAMA(Ask Me Anything)Q&Aセッションで、クラスで発生する特定のAIの懸念に対処する方法を知りたい教師からの質問に対するStephen Hawkingの回答でした。以下:

自分の信念を私のクラスにどのように表現しますか?私たちの視点は調和していますか?素人のターミネータースタイルの「邪悪なAI」を割り引く私の習慣は単純だと思いますか?そして最後に、AIに興味のある生徒たちをどのように強化すべきだと思いますか?

ホーキングは、人類に対するAIの破壊的な影響について懸念を示していますが、他の人が共有しているように、リスクを計画すればリスクを管理できると考えているようです。 (これについて詳しくは、スーパーインテリジェントAIがすぐに人間を破壊しない理由をご覧ください。)

8. 「超インテリジェントな方法を知りたい サイボーグ 普通の肉と血の人間を扱うかもしれない?まず、人間があまり知性のない動物のいとこをどのように扱うかを調査することから始めましょう。もちろん、これは完全なアナロジーではありませんが、想像するだけでなく、実際に観察できる最高のアーキタイプです。」 –ユヴァル・ノア・ハラリ

ハラリ教授は、彼の2017年の本「ホモ・デウス:明日の簡単な歴史」でその宣言を行いました。人工知能。ホーキングの説明では、アリの位置が殺到することになっています。これは、遍在する全知の「宇宙データ処理システム」に支配される未来であり、抵抗は無益です。

9. 「私たちは、人工知能の最先端の研究によって提起された道徳的および倫理的な問題を個別におよび集合的に解決しなければなりません。 バイオテクノロジー、これにより大幅な寿命延長、デザイナーの赤ちゃん、および記憶の抽出が可能になります。」 –クラウスシュワブ

シュワブは、2016年1月に第4産業革命に関する考えを発表しました。前向きな未来派のように、彼は未来が「人類を根本的に変える方法で物理的、デジタル、生物学的世界を融合する」と考えました。そのような「変革はポジティブ」であり、人々は「道に沿って生じるリスクと機会」の両方を意識して前もって計画することを促します。

10. 「人類の最高と最悪の両方を反映するAIの可能性について多くのことが書かれています。たとえば、私たちはAIが孤独な人に会話と快適さを提供するのを見てきました。また、AIが人種差別に関与しているのを見てきました。しかし、AIが短期的に個人に与える可能性のある最大の害は、転職です。AIで自動化できる作業量は以前よりもはるかに大きいためです。リーダーとして、私たち全員が、すべての人が成長する機会を持つ世界を構築していることを確認することが義務付けられています。」 –アンドリューング

この引用は、「今、人工知能ができることとできないこと」から来ています。GoogleBrainチームの創設者であり、スタンフォード人工知能研究所の元ディレクターであるAndrew Ngが、2016年にハーバードビジネスレビューのために書いた記事BaiduのAIチームの全体的なリードでした。 (2017年に、彼はLanding AIの創設者およびディレクターになりました。)それは、当時のAIの機能と限界を説明し、今日でも関連しています。 Ngはデータに支配されたディストピアの未来を想定していませんが、Ngは、それを開発する者が、意図した結果と意図しない結果の両方を完全に理解して責任を持って適用する責任があることに同意します。

11. 「人間の心が2035年までに人工知能機械に追いつくことができる理由も方法もない。」 –グレイスコット

この引用は誤字ではありませんが、オンラインで他の場所で見られる方法とは異なりますが、常に「人間の心が2035年までに人工知能機械に追いつくことができる理由も方法もない」と表示されるためです。物語。デジタルソースでどれくらい前に表示されているかに基づいて、2015年に言われたと思われます。しかし、その期間の動画や動画を何時間も検索した後でも、特定の詐欺にピン留めすることはできませんでした。そこで、私はスコット自身に連絡して、ソースを尋ねました。彼は、「初めて言ったことや、それがどこにあったかを思い出せない」と認めた。しかし、彼は「引用は常に間違っていた。 「人工知能」と表示されるはずです。」