Oddbean new post about | logout
 #fooocus も #a1111 と同じバグがあるようです。
コードとしては、patch_clip.pyの中のpatched_encode_token_weightsの実装に問題があります。

z = z * (original_mean / new_mean)

のコードがそれで、new_meanが時折著しく小さい値をとるので重みが跳ねて正常な描画がされなくなります。

実際に、
original: tensor(0.0004, device='cuda:0')
new: tensor(3.7944e-05, device='cuda:0')
を確認しています。