TRANSCENDENCEのStoryでも触れてはいますが。少し。



先に公開されたTRANSCENDENCEでは、人格(?)の計算機への転写(アップロード)が描かれていました。


こういう人格の転写というアイディアがいつからあったのかは分かりません。星新一の作品にあったと思いますし、宇宙鉄人キョーダインはやってましたし、Max Headroomでもやってました。それらは、個人の人格などの転写です。


人工知能を実現しようというフィクション上での、転写とは別のアプローチとして、電子頭脳であれ、あるはDNA(様物質)であれ、記述できる(設計できる)というアプローチがあります。


で、この転写にしても記述にしても、技術的に実現可能かどうかはともかく、そういう方法で何らかの知能を実現できるだろうというアイディアの基盤は次のようなものになっていると思います:

  • 記述: だって人間の脳ではできている
  • 転写: だって人間の脳ではできている

(同じになっていますが、誤記ではありません。)


ブレイン・プロジェクトが進めば、どっちの方法にせよ、あるいは両方の混合で、実現可能なのかもしれませんが。




ですが、ここで疑問が浮かびます。


人間は考えているのか?


これがコケたら、根本的な部分で、記述でも転写でも無理なんだろうなと思います。(無理というのとはちょっと違うかもしれません。)




さて、記述にせよ転写にせよ、少なくとも現状では人間並みの人工知能を実現するのは無理(特定の領域に限定するなら、どうなんでしょ?)。ですが、人工知能の道のりについて考えてみても、そういう分類がやはりできるように思います:

  • 記述: ルールベース
  • 転写: 統計、頻度など

今は、転写の傾向が大はやりです。


ですが、ブレイン・プロジェクトを前提としなければ、たぶん個人の人格や知能を記述、ないしは転写するのは無理っぽい気がします。


なぜ無理っぽいと思うのかと言えば、どっちの方法にせよ「サンプルが足りない」という問題に落ち着くと思います。




では、サンプルがたくさんあったら?


その場合、少なくとも現状では個人は無理ですが、人間の集団の知能のルールや統計などのモデルというのは作れそうな気がします。


特に統計の方は、実際、あちこちで使われています。この場合、ルールベースでも統計などでも、また疑問が浮かびます:

  • モデル上に(?)、何が表現、あるは実現されているのでしょうか?
  • そこには、知能のようなものが(一部ではあっても)記述・転写されているのでしょうか?
  • そこに表現、あるいは実現されているものは、人類の知能の、ある種の基本的モデルのようなものと言えるのでしょうか?

(どういう形であれ、あまり人間を元にしているとは言えない方法もありますが。)


あるいは、言語学においてはチョムスキー系の理論が結構うまくいっているのですが、そこに実際に理論は存在するのでしょうか? 知能というような場合、現象が理論的に表現できることと、実際に理論が存在することは等しいのでしょうか?




仮に、「人間は考えていない」ことが明らかになったとします(それが具体的にどういうことなのかは分かりませんが)。


ですが、既にある統計モデルであっても、なにがしかを学習しています。だとすれば:

  • 何らかのモデルを学習できるということは、その元になにかがあるということでしょうか? (つまり、ここでは「人間は考えていないと思われたが、実は考えていた」ということですが。)
  • あるいは、単に、「人間はこのように行動する傾向がある」という程度のものなのでしょうか?

もし、後者だとすれば、その「傾向」を人間が知能と呼んでいるのであったとしても、それは実際に知能なのでしょうか? (知能の定義にもよるでしょうけど。)


もし、そういう「傾向」が知能ということであれば、Singularityは実現できるのでしょうか? つまり、知能を記述、転写することができるのでしょうか?




ここで、「考えるとは?」というようなことを言い出してもどうしようもありません。サールの中国語の部屋という思考実験があります。そういうのとも関係しないでもありません。


た だ、サールが言っているような形で、「考える」ということを、媒体や方法に帰結させるのは難しいように思います。周囲から見て、考えているとしか言えない のであれば、その知能は存在するとしか言えないと思います。ですが、そういう状態と、実際に存在するというのとは同じ事なのでしょうか? (現実的にはそこで落とすしかないと思いますが。)


あ るいは、「自分自身を意識するかどうか」という話もないではありません。ですが、人間は本当に「自分自身を意識している」のでしょうか? これを考えると、ホムンクルスと無限後退に陥り、答えが出ません。ならば、「人間にはそのように勘違いする機構がある」のでしょうか? あるいは、脳の部位が適宜影響し合った結果がそういう「意識」であるということなのでしょうか? もしそうだとすれば、なんらかの形で自己言及できるシステムが作られたとした場合、「そこに意識がない」ことを確認することは可能なのでしょうか?




人工知能は今後どのような方向に進んでいくのでしょうか? Singularityは達成できるのでしょうか?


そ して、Singularityが達成できた時、人間は彼らをどう扱うのがよいのでしょうか? まぁ単純な話として、人格や人権があるものとして扱うのが良いのでしょうか? (個人的には、当然人格や人権が発生するという立場ですが。どこから発生するのかは分かりませんが。)




この辺りは、「考え方(ロジック)は1つなのか?」にも関係しないでもないです。人間が論理と思っているものは、本当に論理なのでしょうか? 論理とは言わないとしても、「合理的」と思っている考え方と思っているものは、本当に合理的なのでしょうか? そして、他の種にもその考え方というのは通用するのでしょうか?




いろいろな面で、人工知能ってやっぱり難しいよなと思います。


あと、伝統的に、「技術的に確立されると、それは人工知能とは呼ばれなくなる」という話もあったりします。まぁそのあたりは面倒になるので省略します。