ニューロンが入力を受けてからスパイクを出すまでは早くとも数ミリ秒かかる。人間が反応するまでの時間は零点何秒かだから、入力と出力の間には最大に見積もっても数十段のニューロンが介在するだけである。(実際はもっと段数が低いだろう。) 一方コンピュータの方は現在のネズミ以下の判別能力しかないような画像認識をするにあたってさえ数千万サイクルの計算を行わなくてはならない。 だから、脳が物凄い並列計算をやっているに違い無い。ここまでは普通の話ね。 で、問題は「じゃ、物凄い並列な機械をつくったら脳の能力を再現できるのかよ」ということ。もちろん誰も答えをしらない。どんなアルゴリズムを使えば良いか分からないし。 人によっては絶望して「新しい物理法則を」とか「量子論的並列性」とか、「魂」とかに行っちゃう。 で、僕も答えは持って無いけど、この問題を考えるにあたって以下の「計算的大きさ」と「計算的深さ」の概念を
いわゆる「Web 2.0」なるものに、なーんとなく既視感があるなあと思っていたんだが、おれなりに考えがカタチを取ったので書いてみる。 昨今の Web 1.0(なんて言いかたは、もちろん 2.0 なる言いかたが出てきてから遡及的に出たものだが)から 2.0 へのシフトの機運は、一九八〇年代の人工知能業界における流行の変転にとても雰囲気が似ているのだ。 そう、当時は“人工知能業界”としか言いようがないものがあったのである。人工知能の産業化と商業化が一気に進んだのが八〇年代だ。ま、人工知能が商売ネタとして脚光を浴びるようになったわけだ。なんでもかんでもAI、AIと言っていたバブルの時期である。当時ことさらAIアプリケーションなどと看板を掲げていた技術の多くはすっかり“浸透と拡散”が進み、いまではあたりまえの基盤技術としてあちこちに取り入れられていたりする。八〇年代の人工知能業界を思い起こすに、ア
![Web 2.0 と人工知能 - [間歇日記]世界Aの始末書](/image.pl?url=https%3a%2f%2fcdn-ak-scissors.b.st-hatena.com%2fimage%2fsquare%2fd3ba234a1f6f19c9613aecffcab3140597afaf21%2fheight%3d288%3bversion%3d1%3bwidth%3d512%2fhttp%253A%252F%252Fray-fuyuki.air-nifty.com%252F.shared-cocolog%252Fnifty_managed%252Fimages%252Fweb%252Fogp%252Fdefault.png&f=jpg&w=240)
1リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く