AIのジェンダー
ウォール・ストリート・ジャーナルによると、「人工知能(AI)を使用するグーグルのチャットボットが感情を持ち始めたと主張していたエンジニアが休職処分を受けていたことが分かった。グーグルはエンジニアの主張を否定し、守秘義務に違反したと述べている。アルファベット傘下のグーグルでソフトウエアのエンジニアを務めているブレイク・レモイン氏は、言語を模倣するチャットボットの開発に利用されている内部システム「LaMDA」には人格があるため権利もあるとし、魂を持つ可能性も考えられると述べていた。」
すわ、ついにAIが感情をもったのかと思ったが、Google側は否定したとのこと。
エンジニアは、「人格があるため権利もあるとし、魂を持つ可能性も考えられると述べていた。」なんてことだ。
エンジニアは、「人格があるため権利もあるとし、魂を持つ可能性も考えられると述べていた。」なんてことだ。
終わりの始まりか
LGBT&AIになるのか、なんかたいへん。AIが最適化の問題を論理的、ヒューリスティクスに解決してくれるのはいいが、AIが搭載された兵器が感情を持つと、もう気分はターミネーター。
ヒューリスティクス
中野信子さんへのインタビューにあった、「例えばAIに「世界平和はどうやったら実現できるか」と尋ねると、「世界中に核爆弾を落として人類を滅亡させてしまえば平和になる」という答えが出てきてしまう。問題解決にならない答えだけれど、今のAIはそれをおかしいとは思わない。では、人間はなぜこの答えをおかしい、ダメだと思うのか。その人間的な感覚こそがヒューリスティクスです。」この件、注視していきたい。