宇宙には人類以外の知的生命体が存在する可能性が高いにもかかわらず、これまで人類と接触した宇宙人や地球外文明が存在しないという矛盾は、フェルミのパラドックスと呼ばれます。この矛盾について、マンチェスター大学の宇宙物理学者であるマイケル・ギャレット教授が、「高度な文明は全部AIに滅ぼされてしまうため人類と地球外文明が接触できない」という説を提唱しています。

Is artificial intelligence the great filter that makes advanced technical civilisations rare in the universe? - ScienceDirect

https://www.sciencedirect.com/science/article/pii/S0094576524001772



Does the Rise of AI Explain the Great Silence in the Universe? - Universe Today

https://www.universetoday.com/166544/does-the-rise-of-ai-explain-the-great-silence-in-the-universe/

この広い宇宙には人類以外の知的生命体が存在する可能性が十分にありますが、記事作成時点では人類と宇宙人が接触した証拠や、地球外の知的文明が存在する確信は得られていません。このフェルミのパラドックスが存在する理由については「太陽系が地球外生命体にとって魅力的でないから」「文明は生存戦略のために他の文明を滅ぼしているから」などの説が提唱されています。

ギャレット氏は宇宙科学に関する論文を扱う査読付き学術誌であるActa Astronauticaに提出した論文で、「AIが知的文明の発展を妨げるグレートフィルターとして機能するため、星間移動ができるほどの文明が存在しない」という説を提唱しました。

グレートフィルターとは、知的文明が複数の惑星や恒星系を移動できるほどのレベルに達するのを妨げたり、あるいはそこまで発展する前に文明を滅ぼしたりしてしまう出来事や状況を指す言葉です。例としては惑星規模の気候変動や核戦争、小惑星の衝突、超新星爆発、疫病といったものが挙げられますが、ギャレット氏は「AIの急速な発展」がこのグレートフィルターとして機能するのではないかと考えているわけです。

知的文明がたった1つの惑星にしか存在していない場合、その惑星が壊滅的な状況に陥ってしまうと文明停滞や絶滅のリスクが高まります。ギャレット氏は、「これらの文明が多惑星で安定的に発達する前にグレートフィルターが出現するのではないかと提案されており、技術文明の典型的な寿命は200年未満であることが示唆されています」と述べています。



すでにAIはチャットボットや自動運転車、膨大なデータの分析、オンライン詐欺の検出といったさまざまな分野で活躍し始めています。これらの技術は人間に大きな恩恵をもたらす一方で、大勢の仕事を奪う危険性があることも指摘されているほか、AIが人間の知能を超えることでコントロールできなくなってしまうリスクも懸念されています。

イギリスの理論物理学者であるスティーヴン・ホーキング博士は2017年に、「私はAIが人間に取って代わるのではないかと危惧しています。コンピューターウイルスを設計するように、誰かが自己を改良して複製するAIを設計するでしょう。これは人間を上回る新たな生命形態となります」と語りました。

ギャレット氏も、AIが急速に発展して生まれる「Artificial Superintelligence(ASI:人工超知能)」はそれを生み出した生物学的生命体を必要としないため、生物による監視を超えたペースで進化を続けた結果、生物学的な倫理やメリットにそぐわない予期せぬ結果をもたらすリスクがあると指摘。ともすると、ASIが生物学的な監視者の存在が合理的ではないと考え、致命的なウイルスを作ったり、農作物の生産と流通を妨害したり、原子力発電所をメルトダウンさせたり、戦争を始めたりして創造主を絶滅に追いやりかねないと主張しました。

AIを取り巻く問題が複雑なのは、Aが医療用画像に基づく診断精度の改善から安全な輸送システムの構築まで、あらゆる分野でメリットをもたらすからです。もしAIがデメリットしかもたらさないのであれば全面的に規制するだけで済みますが、AIがもたらすメリットがあまりにも大きいため、政府には「AIの被害を抑えつつ倫理と責任を持ったAIの発展を後押しする」という難しいかじ取りが要求されるとのこと。



AIによって文明が滅ぼされてしまうのを防ぐ方法として挙げられるのが、地球だけでなくその他の惑星や恒星系に進出し、1つの惑星が滅びても別の惑星に住む集団が生き延びられるようにすることです。ギャレット氏は、「例えば、多惑星にまたがる生物種は、異なる惑星での独立した経験に基づいて生存戦略を多様化し、1つの惑星に縛られた文明が直面する障害を回避できる可能性があります」「この分散型の存在モデルは、冗長性を生み出すことでAIが引き起こす大惨事に対する生物文明の回復力を高めます」と述べています。

また、複数の惑星に進出することで、特定の天体を「高度なAIの実験環境」として活用できるかもしれません。孤立した小惑星や準惑星など、人類文明と直接関わりのない場所でAIの進化を見守ることで、絶滅のリスクを負わずにAIの可能性を研究できるというわけです。

しかし、ここで大きな問題となっているのが、AI開発と宇宙開発の間には大きなギャップが存在するという点です。AIはコンピューティング能力とデータがあれば今後も順調に発展できますが、宇宙開発には人間の生物学的な制約やエネルギーの問題など、まだ克服できていないさまざまな課題が存在します。ギャレット氏は、「AIは理論上、物理的な制約をほとんど受けずに自らの能力を向上させることができます。しかし、宇宙旅行はエネルギーの制限、材料科学の限界、宇宙環境の厳しい現実と戦わなくてはなりません」と述べています。

AIによって人類が滅ぼされるのを防ぐため、ギャレット氏は人類が宇宙開発により熱心に取り組むと共に、世界各国が足並みをそろえてAIの倫理的な規制の枠組みを整えてAIの暴走を食い止める試みも必要だと主張。「実際的な規制がなければ、AIが私たちの技術文明だけでなく、すべての技術文明の進路にとって大きな脅威となり得ると信じる十分な理由があります」「宇宙における知的生命体の存続は、このような国際的な規制措置や、技術的努力のタイムリーかつ効果的な実施にかかっています」と述べました。