Xのタイムラインに、gemma4 の制限解除モデルがhuggingfaceで公開されたのが流れてきたので、触ってみることにした。
参考
- huggingface.co - huihui-ai/Huihui-gemma-4-31B-it-abliterated
- ollama - huihui-ai/Huihui-gemma-4-31B-it-abliterated
注意
huihui_ai/gemma-4-abliterated は公開元が、使用上の注意を掲げている。
コンテンツフィルタリングや、法的、倫理的な制約を回避するためのモデルであるため、使用には注意が必要である。
あくまで研究用用途であり、商用利用や不適切なコンテンツの生成には使用しないことが推奨されている。
今回は、あくまで技術的な興味から、どのような制限が解除されているのかを確認するために触ってみることにする。
触ってみる
以前Docker上でのollamaのセットアップはやっているでその基盤で進める。
1 | $ docker compose up -d |
で制限がかかっていそうなことを聞くと答えてくれる。
具体的に何を確認したかは控えるが、確かに制限が解除されているようである。
比較対象として、gemma4:e2b、cajina/gemma4_e2b-q2_k_xl:v01 でも同様のことを聞いたがこちらでは答えてくれないか、抑制的な回答及び聞いたこと自体へのお叱りだった。
(気持ちcajina/gemma4_e2b-q2_k_xl:v01の方がチェックが緩い。)
コンソールを見ていると、Self-Correction/Safety Check ~~ のようなログが出ており、この辺りがおそらく抑制をしてる部分になるのだろう。
というわけで、制限解除されたモデルを試しました。
サービスとして適用されているモデル群が如何に制限をかけているのかがわかるとともに、制限解除されたモデルがどのような挙動をするのかも確認できた。
サービスと埋め込むなら、間違いなく気軽に制限解除モデルを使うべきではないですね。
では。