なぜ量子コンピューティングがビッグデータハイウェイの次の転換点になるのか

著者: Judy Howell
作成日: 27 J 2021
更新日: 11 5月 2024
Anonim
なぜ量子コンピューティングがビッグデータハイウェイの次の転換点になるのか - 技術
なぜ量子コンピューティングがビッグデータハイウェイの次の転換点になるのか - 技術

コンテンツ


出典:Krishnacreations / Dreamstime.com

取り除く:

コンピューター技術は何十年も同じ道を歩んできたが、量子コンピューティングはそれ以前の巨大な出発点である。

2012年9月28日、ニューヨークタイムズは、「オーストラリア人が新しいクラスのコンピューターを求めて急増する」というストーリーを実行しました。これは、実用的な量子コンピューターを構築する競争の突破口と思われるものに関するものです。

量子コンピューターの定義は多くの読者をほのめかしますが、機能する量子コンピューターは技術の世界で革命的であると言うだけで十分です。

コンピューター技術は、私たちが過去50年間に経験した世界の変化の根底にあります。世界経済、インターネット、デジタル写真、ロボット、スマートフォン、電子商取引はすべてコンピューターに依存しています。量子コンピューティングが私たちをどこへ連れて行くのかを理解するために、テクノロジーの基本的な理解を持つことが重要だと思います。

初めに、エニアックがありました

だから最初から始めましょう。最初に機能した電子コンピューターは、電子数値積分器とコンピューターであり、より一般的にはENIACとして知られていました。これは、ペンシルベニア大学ムーア工科大学で、第二次世界大戦での砲撃の軌道を計算するために米国陸軍の資金提供の下で開発されました。 (エンジニアリングの驚異に加えて、ENIACはその後の多くの主要なITプロジェクトの道を切り開きましたが、コンピューターが完成する前に終わった第二次世界大戦には遅すぎました。)

ENIACの処理能力の中心は真空管であり、そのうち17,468個でした。真空管にはオフとオン(0/1とも呼ばれる)の2つの状態しかないため、コンピューターは10進数演算ではなく、値が0から9までのバイナリ演算を採用しました。これらの個々の表現はそれぞれビットと呼ばれ、 「2進数」の略。 (ENIACの歴史の詳細については、ENIACの女性:プログラミングの先駆者を参照してください。)

私たちがよく知っている数字、文字、記号を表す何らかの方法が必要であることは明らかでした。そのため、American National Standards Institute(ANSI)によって提案されたAmerican Standard Character Information Interchange(ASCII)として知られるコーディングスキームは、最終的には標準になりました。 ASCIIでは、8ビットを組み合わせて、所定のスキーマの下で1つの文字またはバイトを形成します。数字、大文字、小文字、特殊文字を表す256の組み合わせがあります。


混乱した?心配しないでください。平均的なコンピュータユーザーは詳細を知る必要はありません。ここでは、ビルディングブロックとしてのみ表示されます。

次に、コンピューターは真空管からトランジスターまでかなり急速に進歩し(William Shockleyと彼のBell Labsチームは、トランジスターの開発でノーベル賞を受賞しました)、その後、集積回路を作成するために複数のトランジスターを1つのチップに配置する能力を獲得しました。これらの回路が1つのチップ上に数千または数百万ものトランジスタを含むようになるのはずっと前のことであり、非常に大規模な統合と呼ばれていました。これらのカテゴリは、1)真空管、2)トランジスタ、3)IC、4)VLSIは、チップ上にいくつのトランジスタを詰め込んでも、4世代のハードウェア開発と見なされます。

バグやストレスなし-あなたの人生を破壊することなく人生を変えるソフトウェアを作成するためのステップバイステップガイド

誰もソフトウェアの品質を気にしない場合、プログラミングスキルを向上させることはできません。

1946年にENIACが「ライブ」になり、これらの世代を経て、真空管ベースのバイナリ算術の基本的な使用はそのままになりました。量子コンピューティングは、この方法論からの根本的な脱却を表しています。

量子コンピューティング:大きなブレーク

量子コンピューターは、原子と分子の力を利用して、シリコンベースのコンピューターよりもはるかに高速でメモリタスクを処理および実行します(少なくとも理論的には)。特定の計算を実行できる基本的な量子コンピューターはいくつかありますが、実用的なモデルはまだ数年先です。しかし、それらが出現した場合、コンピューターの処理能力を大幅に変える可能性があります。

この能力の結果として、量子コンピューティングには、少なくとも理論的には非構造化データの超並列処理に優れているため、ビッグデータ処理を大幅に改善する能力があります。

コンピューターは、1つの理由でバイナリ処理を続けています。実際に動作するものをいじる理由はまったくありませんでした。結局、コンピューターの処理速度は18か月から2年ごとに倍増しています。 1965年、Intelの副社長Gordon Mooreは、ムーアの法則として知られるようになったものを詳述した論文を書き、プロセッサの密度は2年ごとに2倍になり、処理速度が2倍になると述べました。彼は、この傾向は10年間続くと予測していると書いていましたが、現在に至るまで–著しく–継続しています。 (バイナリの型を破ったコンピューティングの先駆者が何人かいます。詳細は、Why Not Ternary Computers?をご覧ください。)


しかし、処理速度の向上は、コンピューターのパフォーマンスを向上させる唯一の要因とはほど遠いものです。ストレージ技術の改善と電気通信の出現は、ほぼ同等に重要です。初期のパーソナルコンピューターでは、フロッピーディスクには140,000文字、最初に購入したハードディスクには1000万文字が含まれていました。 (5,500ドルもかかり、デスクトップコンピューターと同じ大きさでした)。ありがたいことに、ストレージは容量がはるかに大きくなり、サイズが小さくなり、転送速度が速くなり、はるかに安くなりました。

キャパシティの大幅な増加により、以前は表面を傷つけることしかできなかった、またはまったく掘り下げていない領域で情報を収集することができます。これには、気象、遺伝学、言語学、科学シミュレーション、健康研究など、多くのデータを含むトピックが含まれます。

ビッグデータを理解する

ビッグデータのエクスプロイトは、処理能力のすべての向上にもかかわらず、それだけでは不十分であることがますます明らかになっています。蓄積しているこの膨大な量のデータを理解できるようになれば、データを分析して表示する新しい方法と、処理のためのより高速なコンピューターが必要になります。量子コンピューターは行動の準備ができていないかもしれませんが、専門家はコンピューターの処理能力の次のレベルとして彼らのすべての進歩を見てきました。確かに言うことはできませんが、コンピューター技術の次の大きな変化は、これまで私たちを支えてきたシリコンチップからの本当の出発かもしれません。