流行りのChatGPTを使って文献検索ができるか遊んでみたが、ある意味なかなか面白い。
ともっともらしいことが出てくる、それも早い。
すげえなと思って実際の文献を調べるのだが…
ということで、全く違う文献に突き当たる。
という答えが返ってくるのだけど、これも全く正しくない。
割と有名な話で、じつは根拠を出せというと、とりあえずもっともらしいことをでっち上げるようだ。
これで論文作られたらたまらんなと思う。
全く存在しない論文を挙げられたこともあったが、一応基となる論文があるときもある。
ただし提示された情報とはまったく内容は異なっており、双極性障害をもつ患者のリチウム投与によって、認知症発症率は影響を受けるかが検討されている。
しかし文献検索をさせず、下記のように単純に薬物の比較をさせるような、テストに出したような問題はおおよそ完璧な答えを返してくる。
情報を統括してニュアンス的にほぼ正しいというのをつかんでいるのが怖い所
ただ、大まかなかつ曖昧な情報群から結論を得ているので、実は確固とした根拠はないのではないか。
そこをごまかす機能があるのがかなり危険なところだと言える。