京都で思い出す大学の意味

大学で学ぶとはどういうことか?
今の時代、「知識」に関しては、AIに聞けばほとんど教えてくれる。
ソフトのレクチャーにしても、YouTubeで動画で丁寧に教えてくれるし、ぼく自身も新しい機能や、新しいソフトが出るとYouTubeで学んでいる。

ここでも何度も書いてきたが、今からはAIを道具として使う人と、AIに使われる人に分かれてくると思っている。

前回に書いた、シンギュラリティの時代が来ている今、人間の存在はビッグデーターの外の考えを追い求めることになる。
つまり新しい考え方だ。

それは発明ではなく、90年代に任天堂のゲームの父と言われた横井軍平氏が語っていた哲学、「枯れた技術の水平思考」(古いテクノロジー(枯れた技術)を違う分野で生かし新しい価値を生み出すこと)ができる新しい考え方のできる人材を育てることだと感じている。

つまり、これから大学が育てなければならないのは、知識を持った人材ではなく、思考力を持った人材育成ということだ。

それとともに、大学という場所で一番大きい意味は「出会いだ」と思っている。

先週、京都での「あのねのね」50周年コンサートに行ってきた。
あのねのねの清水国明さん、原田伸郎さんと出会ったのは、ちょうどぼくが大学に入学した18歳のときだった。
そのとき大学で教えていた大学講師でミュージシャンの三浦久先生と出会い、作っていた曲を聴いてもらったところ、当時、あのねのねの所属していたインタースペース京都レコードに所属することになったのだ。

事務所には河島英五さん、やしきたかじんさん、尾崎亜美さん、たんぽぽ、笑福亭鶴瓶さんなど、後々有名になっていくアーチストが所属していた。

あのねのねの二人もまだ大学生だったし、あのねのねの二人以外はまだ無名といっていい存在だったこともあり、よく安い店で酒を飲みながらいつも夢を語っていた。

そして他にも、後に世に出てくる、きっとだれもが知っているミュージシャン、芝居、俳優、作家を夢見る京都大学、同志社大学、立命館、精華、京都女子など、自分の大学に関係なく、何人もの出会いがありいろいろなことをやってきた。

なぜ出会ったか。
答えは簡単で、「おもろいことをやっていれば、おもろい仲間が集まってくる」。

そういうことだ。

ライブハウスはもちろんのこと、京都の会館などそんな仲間たちと借り、チケットを手売りで売り、アルバイトをして資金を稼ぐなど、コンサートも自分たちで何度も開いた。
同人誌を出したり、イベントもいろいろやってきた。

「もっとおもろいことをやりたい」

今考えれば、学生だったからこそできたことだし、本当に楽しかった。
そしてそのときの経験、そして人脈がそこからいくつもつながっていく。

あのねのねの50周年コンサートには、スケジュールの合間を縫って飛び入りで笑福亭鶴瓶さんもやってきた。
ステージでは出会った大学時代の話で盛り上がり、その出会いがあったから今があることがよくわかる会話と笑顔だった。

そして、あのねのねと鶴瓶さんが1曲歌い出した。
河島英五さんが作った「青春旅情」という曲だ。
実はこの曲、あのねのねや鶴瓶さん、そしてぼくにとっても大事な曲なのだ。

河島英五さんとコンサートツアーで全国を周っていた時など、田舎の駅の乗り換えの時間など、英五さんとホームでギターを出しよく歌っていた。
当時は「どさまわり」という曲名で、まだまだ無名でもがいていた日々の中で、この歌がいつしか、当時のぼくたちの仲間の歌となっていた。

次の日、46年前にぼくが住んでいた京都の一乗寺にあるアパートに行ってみた。
最初、清水国明さんが借り、そこへ原田伸郎さん、鶴瓶さん、同じ事務所だった後に、レイニーウッドのベースとなるミッキーさんが住み、そしてぼくが最後に住んだアパートだ。
そのアパートがまだ残っていた。

ぼくは途中で大学は辞めたが、ぼくにとっては京都が大学で、今も当時の仲間たちと仕事もするし、飲みにもいく。
そして口癖が「おもろいことしような」だ。

時代が大きく変わっても、大学時代の「出会い」は変わることのない感応だということだ。

道元禅師の有名な逸話。
その言葉で今月の風景とともに曲と動画を創ってみた。

シンギュラリティの時代

シンギュラリティとは、2005年にAI研究の第一人者として知られるレイ・カーツワイル氏が、シンギュラリティ論を発表し、そして「2045年にシンギュラリティが訪れる」と言ったことで注目された言葉である。

このカーツワイル氏、1990年にインターネットの誕生に検索エンジンが生まれることや、コンピューターが2000年までにチェスの王者をやぶるなど、理論に基づいて未来を予測してきた未来学者でもある。

日本でも2016年に孫正義氏が〝シンギュラリティ〟という言葉を使ったことから、日本でも〝シンギュラリティ〟という言葉が飛び交うようになり、ぼく自身もそのころから興味を持ち始めた。

〝シンギュラリティ〟日本語では「技術的特異点」と訳されている。
AIなどの技術が、直線的に向上するわけではなく、指数関数的に向上することで、仕事の多くが代替可能になるということだ。

だが、ここのところChatGPT-4が発表されてから、いったい何が起こっているのかと思うほど、あらゆる分野でAIを使ってのコンテンツが生まれてきている。

「2045年にシンギュラリティが訪れる」ではなく、これはもうすでに〝シンギュラリティ〟に入ったのではないだろうか。

前回、AIをどう、道具として使うかということを書いたが、まさに「自分が何をやろうとしているか、そのためにAIをどう使うのか」という思考がなければ、AIは単なる便利な検索エンジンでしかない。

現在ぼくのメタバースの共同研究では、3DモデリングをAIに命令して作ろうと研究しているのだが、きっと1年もすれば、テキストだけで自分が想像する3Dモデリングがだれにでも可能になると思っている。

またAIは大学で教えることで出てきた問題点も今年に入ってからどんどん解決してくれている。

たとえば、「伝える」において、情報源は「視覚情報」「聴覚情報」「言語情報」の3つによって伝えられる。
その割合は、視覚情報 55%、聴覚情報 38%、言語情報 7%になる。
つまり、93%が視覚と聴覚によって人は認識している。

つまりは、「伝える」において一番だれもが認識できる形は動画ということだ。
実際、10年前は、広告業界において動画は20%ほどだったが、今は80%以上が動画となっている。

なぜかと言うと、答えは簡単で、だれもが持っているスマートフォンが4Gとなり、動画をストレスなくだれもが見られるようになったからだ。

2020年のサイバーエージェントの市場調査においても、動画マーケティングに取り組んでいる企業担当者の約85%が「動画の重要性が増している」と回答している。

ぼくのゼミの学生には、1年前から課題制作の中で動画を作らせている。
premiere、Aftereffect、blender、unityを中心としたソフトを使い、動画研究に取り組んでいるわけだが、ひとつ問題があった。

動画に欠かせない音楽である。
ゼミ生の中には作曲できる学生もいるのだが、ほとんどの学生が音楽を作ることができない。
今年の春までは、YouTubeなどのフリーの楽曲を使わせていたのだが、コンテンツ化するにあたってフリーとはいえ、他の人が作った曲ではいろいろ問題があると感じていた。

ChatGPTから始まったAIを研究する中で、AIで音楽を作ってみようと、ここ1ヶ月ほど取り組んできた。

これがとにかく面白い。
AIに、たとえば「センチメンタル」に「ゆったりと」「アコースティック」になど、キーワードを入れ、楽器、時間やキーも指定するといくつもの曲を一瞬にプレゼンしてくる。
その中から、自分のイメージに合った曲を見つけると、それをカスタマイズし、ドラムとベースを強調したり、ストリングスを加えたり、時には自分でギターを弾いて加えたりと、曲を自分のイメージにそこから変えていく。

ぼくは10代、20代のころプロとしてミュージシャンもやっていたことで、現在もクライアントから頼まれた動画の曲もシンセなどで作曲していたのだが、AIを使うと、1週間かかっていた作業が、6~7時間でできてしまう。

もちろんAIが作ってきた曲をそのまま使用すると、1分かからず曲ができてしまうのだが、音楽を作ってきた身としては、そこから曲を膨らませ、イメージを形したくなってくる。
AI作曲についていろいろ調べたが、ぼくがやっている方法だと著作権の問題もある程度クリアーもできている。

学生に対してAIを使うことによっての可能性として、ぼくとは逆のパターンだが、こうやってAIで音楽を作ると、楽器が弾けなかったり、音楽ソフトを使えなかったものも、自分でもイメージを膨らましたくなり、目的を持って楽器を覚えたり、音楽ソフトを使ってシンセを覚えるなど、自分の可能性がAIによってどんどん広がっていくはずだ。

つまり今まで「できなかった」ことが、AIによってできることが、それも一人でできることが一気に増えている。
それは仕事をAIによって奪われるのではなく、AIによって〝自分の可能性が広がっていく〟ということだ。

シンギュラリティの時代をどう生きるか。
その一つとして道具としてAIを使うことだとぼくは思っている。

今回、ここに載せている「生き方に窮屈を感じたら」の動画、音楽はAIを使って曲を創ってみました。

 

ChatGPTが時代を変える2

先月ChatGPTのことを書いたが、文、画像、動画、3D、音楽…あらゆる分野でAIが一気に動き出した感がある。
ただ、大学では思っているよりAIで訪れる社会のことがちゃんとわかっていないことが見えてきた。

大学での論文やレポートに関するAI対応を見ながら、今までのやり方の中で対処しなければならないと意見を述べているが、間違いなく「今」時代は変わったのだ。
そもそもChatGPTを単なる利口な検索エンジンように思っているらしい。
ネット上のビッグデータの中でのデータなので、フェイクもまだまだあることから「ここが間違っている」と、間違い探しを見つけては「使えないなぁ」と自慢げに話している人たちもいる。

数年前、大学でDXの話をしたとき、スマートフォンを持っていながら、「私はDX社会の中で生きてはいない」と言っている時とまったく同じレベルで、今回もAIのことをちゃんと理解できずに見ているようだ。

この場所でも数年前から書いてきたことだが、今からの時代は、「AIを使う人」と「AIに使われる人」に分かれると言ってきた。
つまり、AIに価値を「奪われる」人と、AIで価値を「生み出す」人がこれから生まれてくる。
ここでAIを否定する意見の人たちは、つまりはAIに価値を「奪われる」人たちのようだ。
AIに価値を「奪われる」と思われる人たちは、そもそもが、自分の仕事に対してアップデートができていない。

前回も書いたが、AIは便利な道具として、自分のやっていること、やろうとしていることの中でどう使うか。
たとえば、ぼくが原稿を書く場合だと、以前は資料集めなど数週間かかっていたことが、AIを使えばチェックなども入れても1日かからず用意することができる。

その下準備ができたところから、取材や研究といったリアルが始まる。
取材や研究においてのリアルはビッグデータにはまだないデータだし、データの中には五感で感じる感覚がない。

つまり、よくアナログ人間は人間的で、デジタル人間は機械的だと言うが、今の時代、その考えがまったく逆になっていると思っている。

 

アナログ人間はテクノロジーでできることに時間をかけ価値をどんどん奪われていき、デジタル人間は、テクノロジーでできることはテクノロジーで処理することで、より人間にしかできないことを追い求め、そこに価値を生み出していく。

本来なら大学というところは、制作、論文、レポートにしても、AIを道具として使うことで、どれだけのことができるか。
それを追求する、つまり今からのAI社会の可能性を研究する機関でもあると思っている。
それが本来の「成長」ではないだろうか。

そしてその可能性を追求すればするほど、間違いなく人間にしかできない、価値が見えてくるはずだ。

今月の「ことばの風景」
物差しを捨て 旅に出よう

ChatGPTが時代を変える

OpenAIが2022年11月に公開した人工知能チャットボット、ChatGPTがとにかく凄い。
検索はもちろんのこと、指示のやり方であらゆる文章、ソフトとの連携で3Dや動画作成までもできる。

4月から自分のゼミでは、まずは課題の研究制作に向けて、ChatGPTで目的のレポートは書かせてみようと考えている。
もちろん、単にChatGPTの作成したレポートを提出させるのではなく、そこに自分の目的、研究を加えることで、自分がやろうとしている「目的」が、ChatGPTが導き出した答えによって、深く研究制作できることになる。

たとえばChatGPTに「動画の必要性について」と質問。

「動画は、静止画と比べて商品を深く理解してもらいやすく、伝えられる情報量が多く、動きや音声によって印象に残るため、商品を深く理解してもらいやすいです 1。また、動画から何らかの感情が生まれたユーザーはそれを他のユーザーと共感するために、ソーシャルメディアで動画をシェアし、拡散性の高い動画は「バイラル動画」と呼ばれます 4。
採用動画の良さは、働く環境や人の雰囲気が伝わりやすいこと 3。商品やサービスを利用する人々のようすや場面を動画にすることで、購入後の将来像をスムーズにイメージしやすくなります 2。
以上のように、動画は商品やサービスを深く理解してもらいやすく、拡散性が高いため、ビジネスにおいて必要性があると言えます」
と回答。

次に、「たとえばAdobe Premiere Proならば、映画制作など高いレベルの制作も可能か」と質問。

「はい、Adobe Premiere Proは、プロ品質の映像を制作することができるなど、幅広い用途で使えます 1。Premiere Proは、映画やテレビ番組などの大規模なプロジェクトにも対応しており、多くの映画やテレビ番組で使用されています 1。また、Premiere Proは、他のAdobeアプリケーションやサービスとシームレスに連携し、何百ものサードパーティ製の拡張機能と統合されています 3」
と回答してくる。

具体的にもっと知りたいと、「映画ならどういった作品でpremiereは使われているか」と質問。

「Premiere Proは、多くの映画で使用されています。たとえば、『シン・ウルトラマン』では、VFXと連携して映画制作に使用されました 3。また、『ボヘミアン・ラプソディ』や『ジョーカー』などの映画でも使用されています 1。
Premiere Proは、映画制作に必要な機能を備えており、大規模なプロジェクトにも対応しています 1。また、Premiere Proは、他のAdobeアプリケーションやサービスとシームレスに連携し、何百ものサードパーティ製の拡張機能と統合されています 3」と回答。

こうやってChatGPTと質問と応答によって、単にpremiere Proを覚え高い質の動画制作を目的とするレポートを書くにしても、そのレポートの幅と可能性を広げてくれる情報を提示してくれ、目標の到達地点がより高いところへと導いてくれる。

つまりChatGPTが出てきたことで、大学でAIが書いた文章は認めないではなく、AIを道具としてChatGPTをどう使うか、そのことの方が間違いなく必要だということだ。

これは画像をAIで制作することも同じだと思っている。

マンガやアニメ、3DもAIで制作できるテクノロジーが出てきている。
AIで制作したマンガやアニメはビッグデータの組み合わせだからといって、オリジナリティがないのかと言えば、それは大間違いだ。
AIはあくまで道具であり、その道具を使う人間の個性が間違いなく生まれてくる。

写真にエフェクトをかけるのと同じことが言える。
ぼくは制作において、自分の抱いたイメージに向かっていろいろなエフェクトをかけていくのだが、出来上がった作品は自分の抱いたイメージであり、それは自分の心で見えたオリジナル作品である。

デジタルで加工すると虚妄だと言う人がいるが、写真を撮ったのは自分であり、たとえば風景なら季節、雲の動き、日差し、空の色…すべて同じものなど撮れない一瞬を捉えたリアルから始まっている。
撮った写真の空の色が自分にはもっと青く見えたなら、自分の心で見えた色を自分の心の色に変えていく。
その自分に見えたリアルな世界を道具であるデジタルでよりリアルな作品としているということなのだ。

AIを道具として、自分の中で表現できなかったものがコンテンツ化できていく。
そのとてつもない便利な道具としてChatGPTが今、ぼくたちの目の前に現れた。

1992年に日本で初めてのインターネットサービスプロバイダーがサービスを開始してから30年、ぼくたちの生活はそれまでとまったく違うものとなった。

インターネットによってGAFAが生まれ、Microsoft、AdobeなどのMT SAASが次に来ると言われている。
中心となるのはクラウドサービスだが、それを引っ張るのはAI、つまりChatGPTではないだろうか。

インターネットで大きく時代が変わったように、AIによって新しい時代が始まっている。

カーツワイル氏が2045年にシンギュラリティ(技術的特異点に到達)になると予測したが、ChatGPTによってここ2~3年以内にはシンギュラリティが来ると予測する。

とにかくこの、ChatGPTの凄さは、ウォズニアック氏やマスク氏などが、「このままでは予測不可能なブラックボックスに突入し人類が危機に曝されかねない」として、企業は対話型AI技術の開発を半年間停止すべきだとする公開書簡が発表されるなど、人類がかって経験したことのないスピードで時代を変えようとしていることは確かだということだ。

そのスピードはもう止めることはできない。

※今年からなんとなく作りだした、大学でゼミ生に話している言葉、その「言葉の動画」 もリンクさせています。

DX(Digital Transformation / デジタルトランスフォーメーション)時代にどう生きるか。

考えてみれば、2005年に、ケータイ電話でマンガを読むことなどなかった時代に、ケータイの機能を使ってのマンガを制作し、SoftBank、auで配信したときから、自分にとってのDXが始まっている。
もちろんDXなんて言葉などなかった時代である。

そのときに、文星芸術大学、京都精華大学から誘われ、大学でのデジタルマンガ研究の道を歩み始めている。

デジタルでのいくつものコンテンツを作ってきた。
モーション動画から、3D、AR、VR…
エクスポネンシャルな時代の流れの中で、今はXR、メタバースでのコンテンツの研究、制作をやっている。
メディア芸術祭、デジタルキャンパスマッチなど大きな賞もいくつかいただいた。

NHKの総合テレビの50分の番組も、実験的に作らせてもらった。
帝京大学、宇都宮大学などとも共同研究も10年以上やってきている。

コロナの関係で3年近く行けていないが、中国の南京電媒南広学院大学では「MANGAイノベーション」の研究所も持たせてもらっている。

最近ではDXコンテンツを研究、制作していることから、大学、行政、民間から講演など声もかけてもらっている。

そこで感じることは、だれもがDXの時代にどうしたらいいのか「わからない」と迷っているようだ。

そもそもDXとは、IT技術を持って生活をより良いものへと変革させる概念で、つまり「デジタル知識を持って想像しコンテンツ化する」ということだ。

ではどう想像したらいいのか、そこに答えがないからどうしたらいいのかわからない人たちがたくさんいるようだ。

ぼくは最近、DXの話をするとき、DXの本質について、この二つの話をするようにしている。

ひとつは、携帯ゲームの父と言われている、任天堂の横井軍平氏の哲学。

「枯れた技術の水平思考」

「枯れた技術」とは、悪い意味ではなく、すでに広く使われて、バグなどの不具合も出し尽くして安定して使える技術。
「水平思考」とは”今まで無かった使い道を考える”ことである。
つまり、画期的な新しい技術ではなく、だれもがあたりまえと思っている技術を、別の分野に流用し、まったく違う価値観を探り当てるといったことである。

そしてもうひとつは、2005年、スティーブ・ジョブズがスタンフォード大学の卒業式に招かれたときに伝えた言葉。

「未来を見て、点を結ぶことはできない。
過去を振り返って点を結ぶだけだ。
だから、いつかどうにかして点は結ばれると信じなければならない」

この二つの言葉は、「枯れた技術の水平思考」が90年代、ジョブズの言葉は2005年とDX時代の遙かに昔の言葉である。

だが、このふたつの言葉は、まさにDXの本質を突いた言葉でもある。
もっと言えば人間の本質を突いた言葉かも知れない。

人は自分の「枠」の中で生きてきた。
大きく言えば国境であり、大学で言えば、学部である。
昨年、東京工業大学と東京医科歯科大学の統合がニュースになったが、医学とテクノロジーは今は線で結ばれるなど常識になってきている。
だが、枠に捕らわれている人は、医学部と工学部が「なぜ?」と疑問を抱くらしい。

今まで点という「枠」の中のものは、線で結ばれ、それをまた水平思考で新しい発想が生まれてくる。

「枠」を取り払った思考がぼくはDXだと考えている。

ふと、ぼくがミュージシャンだった時代、いっしょにコンサートツアーさせてもらった、河島英五さんの「てんびんばかり」の一節を思い出した。

うちの子犬は とても臆病で
ひとりでは街を歩けない
首輪を付けると とても自由だ
ぼくを神様だと思っている。

DXの時代において、首輪を付けられることが自由だとまだ思っている人が、この日本にはまだまだ多いのかも知れない。

今回は学生たちにいつも言っている、「誰にでもできることを、だれにでもできないだけやる」を言葉の動画にしたので載せておきます。

即今・当処・自己

マーケティングの世界では、約85%の企業が「動画の重要性が増している」と回答している。

「スマートフォン」の利用率が、10代から40代で90%、50代及び60代でも80%を超えている今、ぼくたちの表現は動画を中心に動いているということだ。

そのスマートフォンで動画がだれでも撮れる時代となり、そのスマートフォンで映画までも撮れる時代になった。
個々の表現の中心が、たった10年そこそこで、文字から写真、イラストなどの静止画となり、動画へと変わってしまった。

SNSを見ても、Facebookの利用率は10代では20%と下がり、動画中心のTikTokの利用率の急成長、YouTubeなど10代から40代で90%の利用率を超えている。

Forrester ResearchのJames McQuivey博士の研究によると、1分間の動画は一般的なWEBページの3600ページ分の情報量になると発表している。

たしかにぼくも、たとえばソフトの使い方をGoogle先生で調べるとき、長いテキストを読むのではなく、まず動画を見て調べている。

昔、ワープロが出てきて、ワープロで原稿を書いていると、いつのまにか原稿用紙に手で原稿が書けなくなっていた。
漢字を書けなくなるというのもあるが、一番の原因は間違いなくリズムである。
頭で考え、その考えが文字になるそのリズムが手で書くリズムから、ワープロで書くリズムへと変換されていたのだ、

そして今、テキストを読んで情報を理解していた頭が、いつのまにか動画でなければ理解しづらい頭になっている。

それは劣化ではなく、自分の中での「伝える」「理解する」といった表現に対するスタンスが変わってしまったのだと思っている。

今、ここでぼくが書いている長々として文章よりも、動画で伝えた方が、遙かに自分の気持ち、表現が伝わるということだ。

2023年は、こういったブログやSNSなど、自分で伝えたい思いなどの表現を、動画に言葉を載せて伝えてみようと考えている。

今回伝えたい言葉は、「即今・当処・自己」という、自分の軸となっている禅の言葉だ。
それをスマートフォンで撮った日々の風景とともに表現してみた。

 

自然が目の前にいつもある

2022年も終わろうとしている。
今年は間違いなく、人類史上大きな変革の中の一年だった。
コロナ、戦争、分断、地球温暖化による災害、格差、貧困、政治、経済…
だれもが生き方を変えなければならない時代。

世の中はデジタル化がエクスポネンシャルに進んでいる。
そしてそのデジタル化はほとんどの人が理解できないまま進んでいる。

今、ぼくは芸大でDXにおいてのマンガコンテンツの研究をやっているわけだが、未だにアナログで作品を作っている自称芸術家の先生たちは、デジタルでは「心」が生まれない的な、トンチンカンなことを言ってくる。

ぼくはアナログを認めていないわけでもなく、そもそも何十年もアナログで作家として作品も創ってきた。
そしてデジタルは道具として、「心」を生み出すために使っている。

たとえば写真。
ぼくは週刊プレイボーイや、月間プレイボーイ、Number、マンガ雑誌でグラビアもプロとして撮ってきている。
フイルム時代、つねに自分の写真のリアルに拘ってきた。
だれもが感じたことだと思うが、撮った写真のたとえば空の色を見て、「あれっ?こんな色だったけ、もっと深い青だったと思うのだが…」などと感じたことがあると思う。
つまり、自分の「心」で感じた色と、写真の色にズレがあるわけだ。

ぼくはフイルム時代、いくつものフイルムを試し、シャッタースピード、露出のデータ管理をして、自分の感じた色をいつも模索していた。
自分が撮った瞬間の、心が感じた、その表現をリアルに見てもらうため。
そう思って写真を撮ってきた。
だが、デジタルという道具を手に入れた瞬間、自分の「心」で感じた、その表現がちゃんとできるようになった。
Photoshopを使い、加工ではなく、「心」で感じたリアルをデジタルで生み出すことができる。

マンガのキャラクターでもそうだ。
デジタルを使うことで、キャラクターと会話することもできる。
プログラミングで、会話の相手の名前をよぶように、「こんにちは太郎さん!元気ですか」などと話させると、聞いた本人は、名前を呼んでくれたと喜びが沸き、キャラクターに対する「心」が生まれてくる。

つまり「心」というものは、相手に押しつけるものではなく、相手の心が生み出されるものだということだ。

デジタルを道具として使うことによって、自分の、そして相手の「心」を感じることのできるにはどうしたらいいか。

ぼくが今、研究している超高齢化時代の、マンガを使ったコミュニケーションの大きなテーマとなっている。

ぼく自身も今、仕事場を東京から自然に囲まれたコテージに移し、そこで仕事をしている。
今日もこのあとオンライン会議なのだが、デジタルによって都会ではなく、自然の中で生活できているというわけだ。

散歩もよくするようになった。
iPhone片手に、季節とともに変わりゆく風景を撮りながら歩いている。
それを動画にして、今の心を形にする。

昨晩、2022年のこの1年散歩で撮ってきた動画、写真を見ているうちにpremiere ProとAftereffectで季節の流れを編集してみた。

デジタルと自然とは、ほとんどの人が対局にあるように思っているが、それは違う。

デジタルによって、自然が目の前にいつもある日々をぼくは今、過ごしている。

宇宙の終わりから見えてくる未来

仕事場でつけていたテレビから、サイエンスの番組が目に入ってきた。
宇宙の終わりについての番組をやっている。

宇宙誕生は138億年前にビッグバンによって生まれ、そこから膨張し続け、今は数億の銀河が存在する姿へと膨張している。
この先、宇宙はどうなっていくかについて、世界の研究者は、「収縮説」と、「減速膨張説」の二つに集約され研究されていた。
だが、2011年にノーベル物理学賞を受賞した、パームムッター教授によって、宇宙「加速膨張説」が証明されている。
宇宙の超新星爆発の光によって距離を測定し、宇宙の膨張スピードを割り出していったということだ。
教授の研究に関心しながら番組に釘付けになっていく。
宇宙はこの先、膨張しつづければどうなるのか?
理論物理学者のコードウェル教授が宇宙の終焉についての研究説を語っている。
理論上の計算によると、宇宙の膨張速度は際限なく速くなっていき、ビッグリップになるという。
ビッグリップとは、無限の膨張によってすべてが引き裂かれるということだ。
銀河はビッグリップによって重力が振り切られ、銀河の形はなくなり、分子や原子までも引き裂かれていくということだ。

その番組を見ながら今の人間もビッグリップに向かっているのではないのだろうかと思ってしまった。
そもそも宇宙は銀河という「渦」の集合体でできている。
人間もDNAという「渦」によって存在している。
つまり宇宙も人間も同じ存在と考えてしまう。

その「渦」の膨張速度が際限なく速まったときビッググリップになってしまう。

人工知能研究の世界的権威であるカーツワイル博士が2005年に「コンピューターが人類の知性を超えるとき」で、2045年に技術的特異点、シンギュラリティに達すると言っている。
日本でも孫正義氏がシンギュラリティという言葉を使ったことから、日本でも2016年あたりからシンギュラリティに関する考えは広まっていった。

ではシンギュラリティとは何なのか?
一般には、「AIが人間を超えるとき」と言われているが、カーツワイルの言う技術的特異点というのは、人間が想像し、その想像を技術により形していくには、当たり前だが莫大な時間が必要として。
だが、テクノロジーにより、人間が想像したものが、想像とほとんど同じに形となっていく成長度の急速な膨張。
ぼくはそれがシンギュラリティと理解している。

学生にも講義でよく話しているのだが、今の時代というのはテクノロジーによって、エクスポネンシャルに成長している。
つまり、たとえば1歩1メートルとして、2歩目は2メートル、3歩目は3メートル。
30歩進めば30メートルなのだが、エクスポネンシャルの計算は1歩目は1メートル、2歩目は2メートル、3歩目は4メートル、4歩目は8メートルとなっていく。
その計算で30歩進めば、月までの距離を進んだことになるのが、エクスポネンシャルのスピードとなる。
たとえば情報量を見れば、この20年で約7000倍になっていっている。

シンギュラリティとは、エクスポネンシャル的に加速をつけて成長していく技術的特異点となる。
それは膨張速度は際限なく速くなっていき、ビッグリップになっていく宇宙と同じような気がしてならない。

今日も自然に包まれた仕事場のまわりを2時間ほど散歩してきた。
自然の中を歩いていると、「開発」によって便利になるということは、はたして人間にとって「成長」なのかと考えてしまう。
テクノロジーによって便利になる世界。
だが、それが人間の幸せと、成長と思い込んで進んできた今。
それは「成長」ではなく、「膨張」なのかもしれない。

宇宙の終わりについての番組を見ながら、そんなことを考えた。

DXはリアルの中から見えてくる

森や田んぼの畦道などを散歩をしながら季節の流れをiPhoneで撮り、そしていろいろなことを考える。
自然に囲まれた場所に引っ越してから、それが日々の生活の大きな時間になっている。

DXの時代というのは、仕事と暮らしが同居する時代だと思っている。
デジタルの時代というと、ほとんどの人がリアルではなく、バーチャルなつながりだと思っているかもしれないが、デジタルな時代だからこそ、人間はリアルがより重要になってきている。

日本人が昭和の時代、人間がロボットのように働き、海外からはエコノミックアニマルと呼ばれ、「24時間働けますか」とテレビからCMが流れる中で、日本は経済大国になっていった。
経済成長が幸せだとだれもが信じ、「根性」という言葉の中でだれもがアリのよう働くことで、テレビ、車、家と幸せの象徴であるモノを手に入れていく。

お金を儲けることが幸せにつながると思い込んでいた時代だから、仕事というものは厳しさの中で働くのが当たり前。それで金がもらえると思い込んでいたのかもしれない。

だからロボットのように日本人は働き、1970年代にはGDP世界2位まで上り詰めている。
だが、ロボットのように働くのは、今は本当のロボットが働くことになってしまった。

作業的な仕事は、テクノロジーによって生まれた機能、サービスによって人間からAIを搭載したロボットへと代替していっている。

人間の仕事は、人間しかできないことが求められている。

それが何かと言えば、それは「想像力」だということだ。
考えてほしい。
AIを生み出していっているのも、人間の想像力を形にしていったからだ。
つまりこの世に存在しなかったものを生み出す根底には人間の想像力がある。

だが日本の教育は想像力を生み出すべく教育ではなく、暗記力を持ってロボットのような人材育成をしたことで、日本にGAFAMやBATHが生まれないどころか、想像力によっての新しいチャレンジをしようとする人材を日本社会は潰していった感がある。
だから今の日本はどんどん時代から、世界から取り残されていっている。

「想像力」を生み出す力を考えたとき、想像力の基盤には必ず「リアル」が存在する。
その「リアル」というのは、暮らしの中でたとえば「楽しい」と感じたリアルな気持ちだ。
その基盤があって、バーチャルが存在しなければ、そこに生命力は存在しない。
存在しないということは、死んだ世界ということだ。

今からの時代、メタバースによって、仮想空間をだれもが生活の中で利用することのなることは間違いない。

つまりそこに生きるということだ。
だから死んだ世界ではなく、生きる世界として「リアル」がとても大事だと感じている。

そう考えると、DXの時代はロボットのように生きるのではなく、人間が人間として生きることを問われている。
デジタル=非人間的ではなく、デジタル=より人間的な生き方。

たとえば写真。
風景を撮って見たとき、「あれ?空はもっと青かったのにな」など、感じることがあるとおもう。
そういった場合、自分が感じた空の青さをPhotoshopによって調整する。
加工と言ったら、リアルを変えると思うかもしれないが、テクノロジーによって、より自分が心で感じたものをリアルにしていくということでもある。

想像も心が生み出すもの。
その心はリアルの中から生まれてくるものだということだ。

まぁ、散歩をしながらそんなことを考えてみた。