科学技術コミュ日記

ChatGPTと高次元科学

モジュール4「科学技術の多面的課題」課題レポート

北大マルシェの近く
北大マルシェの近く

10月と11月には、モジュール4「科学技術の多面的課題」講義、計4回がありました。それらについては、以前の日記で紹介しました: In between - 科学技術コミュ日記(2023-11-24)

以下、モジュール4の課題レポートをここに公開します。

今回、課題で取り上げた話題は、これまでも関心があったもので、先日も友人のポッドキャストで話していました: 9. 複雑なものを複雑なまま扱う:高次元科学について語ろう (sorami) | 界隈.chat

このトピックに興味のある方には、以下の外部記事などが参考になるかもしれません:

また、過去のモジュール課題レポートは、以下の日記にて公開しています:

課題

広い意味で自分が「当事者」だと思えるような科学技術と社会にまつわる課題を一つ挙げ、科学的課題と社会的課題を分けながらその課題の解決の難しさを述べてください。(800〜1200字程度)

提出文

2022年11月にOpenAIによってChatGPTが公開されてから1年が経過した。いわゆる「人工知能(AI)」技術は、これまでにない規模で社会へ意識的に取り入れられ始めている。

私は以前、コンピューターで人間の言葉を処理する「自然言語処理(Natural Language Processing, NLP)」の分野で研究を行っており、現在はソフトウェアエンジニアとして働いている。

NLPは元々、言語学に基づいていることが多かったが、21世紀初頭から統計的アプローチが主流になり始め、現在では圧倒的な主流派となっている。さらに、ChatGPTは技術的には特に目新しさはないかもしれないが、大規模な計算資源とデータの使用、そして対話型インターフェースの導入などがこれまでと異なり、広く社会の注目を集める要因となっている。

このようなモデルの「学習」は、人間のそれとは異なる。これはしばしば「鳥と飛行機」の関係に例えられる。人間が「言語や知性の仕組み」を完全に理解して構築したわけではないこのツールは、制御性や信頼性に課題を抱えており、その振る舞いに関する研究もまだ進行中である。また、学習に使われるデータの偏りが出力に影響を及ぼし、既存の社会的バイアスを増強する可能性が指摘されている。学習データのライセンスに関する懸念も存在する。しかし、これらの問題にもかかわらず、社会での利用は急速に広がっている。

私は日々、仕事でプログラミングをしており、その際にもこのような技術を積極的に活用している。例えば、GitHub(OpenAIの主要株主であるマイクロソフトの子会社)が提供する「GitHub Copilot」というサービスは、プログラムの断片を自動生成し、提案してくれる。これにより、自らがキーボードを叩く量は大幅に減少した。このような技術の活用は、生産性に大きな差をもたらすと実感している。

また、これらの技術が、人間の知的活動をより根本的に変えていく可能性がある。過去数百年間、人類は科学的手法により原理を解明し、それを応用して社会を劇的に発展させてきた。しかし、ChatGPTのような統計モデルがブラックボックスとして人間より優れた結果を提供するとき、人間はそれをどのように扱うべきか。従来の「科学」の方法論は、大きく変わるのではないだろうか。

… さて、ここまでのレポート文を「これはChatGPTが書きました」と言ったら、どうだろうか。その真偽を客観的に判定することは事実上できないだろうが、もし実際にそうであったとして、何が問題になるのだろうか。私は、このようなツールによる知性の拡張は、適切にクレジットを表示すれば問題ないと考える。しかし、例えばそれが個人の教育に与える影響は、その扱い方次第でプラスにもマイナスにもなるだろう。このような事例は、今後ますます増えるだろうし、それを止めることはできない。そのとき、教育や雇用のあり方、人々の価値観なども、新技術に適応して変化せざるを得ないだろう。

🧞