アカウント名:
パスワード:
帰納法でしか物事を判断できないからしょうがないんだけど、仮説を立てて検証するわけでも、証明をやるわけでもない。
実際にいくつか使って見たけど、どんなに賢く見えても、それっぽい何かを出力する装置でしかないよね、というのが実感としてある。なんというか、賢い文系に理系の課題を解かせるようなもやっと感がのこる。
人間が知性と呼んでいるものの正体の多くは(全てではない)過去の知識・経験の集積にすぎないので、wikipediaやgoogle検索の結果を鸚鵡返しするようなものであっても人間には優れたAIと認識される#色の無い緑色の概念が猛烈に眠っている絵をAIに書かせてみたい(やってみた人がいたら、ぜひ結果を教えてください)
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
私はプログラマです。1040 formに私の職業としてそう書いています -- Ken Thompson
LLMって、どこまで行っても文系なんだよね (スコア:1)
帰納法でしか物事を判断できないからしょうがないんだけど、仮説を立てて検証するわけでも、証明をやるわけでもない。
実際にいくつか使って見たけど、どんなに賢く見えても、それっぽい何かを出力する装置でしかないよね、というのが実感としてある。
なんというか、賢い文系に理系の課題を解かせるようなもやっと感がのこる。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:LLMって、どこまで行っても文系なんだよね (スコア:0)
人間が知性と呼んでいるものの正体の多くは(全てではない)過去の知識・経験の集積にすぎないので、wikipediaやgoogle検索の結果を鸚鵡返しするようなものであっても人間には優れたAIと認識される
#色の無い緑色の概念が猛烈に眠っている絵をAIに書かせてみたい(やってみた人がいたら、ぜひ結果を教えてください)