AI

AI

RTX4060向けStable-diffusion3.5medium微調整

当環境でもStable-diffusion3.5 mediumを使って画像生成を行うことができましたので、RTX4060向けの微調整の経過を残します。 初期状態だと一枚生成するのに40分くらいかかりますが、当環境でも微調整を行うことで、生成時間が1分程度まで短縮できました。
AI

ローカルLLMで画像生成(RTX4060使用)

 RTX 4060環境(VRAM8GB)でも、pytorchとStable Diffusionを使ってローカル画像生成ができるようなので挑戦しました。 比較的入手が容易なGPUを使っていますので、参考値として下さい。
AI

AI作曲(SUNO)を使ってみた

 6月に入り、急に作曲したくなったので、作曲ができるソフトを探していたところ「SUNO」を見つけました。 ちなみに私自身は音楽のセンスがあるわけではありませんし、昔バンドをやっていたり、音楽を嗜んだこともありませんが、見せてもらおうかSUNOの実力とやらをという気持ちで挑みました。
AI

FramePackを使ってローカルで動画生成

FramePackを使用するとVRAM6GBのマシンでも、ローカル環境で動画生成を行うことができると聞き、さっそく試してみました。私のPCは、AIモデルとしてのスペックは高くないので、どの程度動くのか実験です。
AI

Ollama+WebUI環境の構築

今までOllamaのフロントページを手作業で作っていましたが、WebUIが評判ですのでさっそく使ってみました。Dockerを使うとあまりにも簡単に実行できてしまうので、あえてDockerを使用しないで環境を構築します。
AI

低スペックPCからOllama(gemma2)を呼び出す

Windows11の推奨環境すらクリアしていないPCで、Ollamaを使ってGemma2をWebから呼び出しました。本当はファインチューニングまでやりたかったのですが、ロールを使ったチャットですらレスポンスが返ってこなくなってしまうので、諦...
AI

OLLAMA API を外部から呼出す

Windowsのローカル環境にollamaを入れて使っていますが、外部からプライベートIPを指定してAPIを呼び出そうとするとエラーになるので、IPアドレス指定によるOLLAMA APIの呼び出しができるようにしました。
AI

【AI】ローカルLLM用のフロントページ作成

Ollamaをインストールして、コマンドプロンプトからローカル環境のLLMにアクセスすることができましたので、OllamaAPIを呼び出すフロントHTMLを作成してみました。
AI

自宅のWinPCでLLM(Ollama)を使ってみました

LLMについて調べていたところ、ローカル環境で動作するLLM OllamaにWindows版がリリースされたとの記事を見つけたので早速試してみました。