
kanrisha


教師なしでどうやって「正解ラベル」を得ているのか?

Transformerの“学習”とは何をしているのか?

【完全理解】Transformerはどこで予測しているのか?Attention層の本当の役割とは

【やさしく深掘り】Transformerは“層がすべて”──Attentionは何を何層で見てるのか?

LLMの仕組み、超シンプルに解説します。Attentionって何?

🎧 MP3と📹MP4、何がどう違う? ── 音と映像の圧縮は“思想”が違う

LLM時代のソフトウェア構造化言語 .janicre の提案

サブスクって結局いくら使ってる?サブスク管理アプリ
