AIに質問すれば、たいていのことは答えが出てきます。では、その答えを人は信じるでしょうか?
たとえ答えが正しくても、人はその答えを採用しないことがあります。
分かりやすい例えで言えば、中世ヨーロッパでは、正しくない天動説が正しいと信じられていました。また、AIが出した正しい答えを人が正しいと納得するとは限りません。(ちなみに、AIが答えを出す過程というのは、複雑過ぎて理解できないらしいです。)
どんなに正しい答えでも、人がその答えを信じないということは起きるものです。
人がAIの出す答えを採用しないことがあれば、そのうちAIはそれも学ぶでしょう。AIが人を信じなくなる。。。人が答えを採用しないことを見越して、AIがあえて正しくない答えを出す。。。映画にありそうな展開です。
最近のAIの発展を聞くと、そんなSFのような話が現実になりそうな気がします。技術の進歩にびっくりです。。