Featured image of post 4thaveでやっているAIライティング【Cursor】|Hugoサイト運営の実践方法

4thaveでやっているAIライティング【Cursor】|Hugoサイト運営の実践方法

今更ながら、ここの記事をどうやって書いているかの説明をまとめます。

WordPressのページ速度問題を解決するのが面倒すぎて、いっそのこと静的サイトしかないなと思い、なんか楽な運用方法ないかなーとたどり着いたのが「Hugo」と「Astro」です。

ローカルのMarkdownから記事を投稿できるから、「これもう全部GenAIに任せればいいんじゃ……」と思って、Cursorに課金してガッツリルールを作成して、現在こうやって運用しています。

ちなみにこの記事は、すべて人間である私が書いています。

Cursorで記事を作成するワークフロー

基本的に「これ気になる」をネタにして、ガーッとテキストを書くわけですよ。そのままだと見出しがなくて見づらいし、SEOとしても雑魚。

そこでChatGPTなりCursorを使い、「文章を読み込んで構成を把握して適切な見出しを配置して」なり指示して”記事”として整形。Hugoで公開するにはフロントマターが欲しいから、Cursorで「適したフロントマターを追加して」で完成しています。

サムネイル(カバー画像)は事前に用意していなければ、カテゴリごとのデフォルト表示が挿入されるようになっています。用意する場合は、Manusに記事タイトルを放り込んで生成してもらい、画像圧縮してからimgに放り込んでフロントマターにパスを追加。

あとはGitHubにpushすれば、Actionsが動いてXserverにリポジトリをアップロードしてくれるので、完了すればサーバーに反映されるという流れです。

Cursorの構成とルール設定

私のCursorで使っているGenAIの構成は以下の通りです。

  • .cursor/rules/(サイト全体のライティングルール格納)
  • .cursorrules(サイトのファイル構成、カテゴリ構造、フロントマタールール、記事作成のルールを追加)
  • agent.mdc(SEO最適化のルールを記述、カテゴリごとの文章構成の制御)
  • .github/workflows/deploy.yaml(Actionsのデプロイ実行コード)
  • post-archive.md(投稿記事のリスト化:重複防止)
  • post-create-rules.md(タイトル・カテゴリ・下書きを入れて記事生成する場合に使う)

これらのファイル構成により、AIが記事を作成する際のルールを明確に定義しています。特に、agent.mdcと.cursorrulesはAIチャットの実行時に読み込まれるので、ここに「記事をどうやって書いてほしいか」を細かく記述しているのがポイントです。

記事はカテゴリごとに内容・伝え方が変わるのが常なので、AIらしい統一感を出すよりも、伝える層(ペルソナ)を意識した設定にしています。

仮にアプリケーションを作成しているなら、agentとrule部分に使用言語なり全体の設計を入れておけばいいことになる。特にファイル構成をインデックスなりリスト化しておくと、AIが構成をいちいちフォルダごとに読む必要がなくなるので、効率化には繋がる。

仮にアプリケーションを作成しているなら、agentとrule部分に使用言語なり全体の設計を入れておけばいいことになります。特にファイル構成をインデックスなりリスト化しておくと、AIが構成をいちいちフォルダごとに読む必要がなくなるので、効率化には繋がります。

リサーチデータを格納しておけるメリット

あとは別サイトでの話になるけど、.cursorフォルダにサイトジャンルに関するリサーチデータを格納しています。4thaveは雑記でテキトーなのでそれは作成してません。

リサーチデータが必要な理由は、記事作成時にいちいちウェブ検索させるのもリソースを消費するし、Cursorはそこの部分が特に苦手だからです。AIなら少ない情報量でも、元のLLM+リサーチした一次情報があれば参考にして反映するから、イチからリサーチさせるよりもトークン消費量は抑えることが可能と考えられます(正式な計測はしてないから)。

ChatGPTとClaudeも似たような機能があるし、特にClaudeの「ナレッジ」は追加と削除も便利だったので、Cursorでも実現するようにしているだけです。Notionにナレッジを作成しているならMCP接続する方法もあるけど、MCP経由はそれはそれでトークンを使うので、同一構成で読み込めるほうがエコです。

なのでローカルmdファイル保存してくれるObsidianでリサーチ内容をまとめておいて、必要になったら適時「Copy path」からファイルを登録する方法が個人的に便利です。

WordPressと比べて何が便利なのか

WordPress(WP)は1記事ずつ投稿するには適しているんですよ。でも、複数記事を一気に編集するのには適していません。

複数人でちまちま大量にポストしていくことは可能だけど、GenAIで一気に10記事作成したとして、それをチマチマ投稿するのはかなり面倒です。サムネイル選択して、カテゴリとタグ設定して、description入れてがまぁまぁ疲れます。

HugoとかAstroみたいな静的サイトジェネレーターを使うと、ローカルファイルから記事公開までいけるから、VS CodeとかCursorみたいなAIコードエディターを使って、10記事を一気に作成して一斉に公開みたいなことが簡単にできます。

極端な例をいえば、投稿したいタイトルか下書きを10記事分用意して、あとは「これで記事を作成して」と指示すれば、それで完成してアップロードするだけでいいわけです。

リライト時はAIに直接指示するだけで、特定部分のリライトができるし、内部リンクも勝手に作成してくれるように設定できます。なので、サイトの記事が増えれば増えるほど、一括管理できる「Hugo+Cursor」が魅力に感じたわけです。

導入のハードルは微妙に高い

HugoのインストールとかGitHubをローカル利用するうえでGitをインストールするなど、CLIを使ったファイル操作が必要になるから、「コマンドって何?」な人がいきなり始めるのはハードルが高いです。

CLI とは何ですか? - コマンドラインインターフェイスの説明 - AWS

VS CodeとかCursorでAIに「◯◯インストールして」と聞けば、CLIからインストールはしてくれるけど、それだけで無料枠を使い切る可能性もあるから、お試しでやって力尽きることもあります(自分もそうだった)。

インストール部分は「◯◯ インストール方法」でググればいくらでも情報が出てくるから、そこを参考にしてコマンドコピペしてで、やれる人はほんのり慣れてくると思います。

それが「無理」なら、コードエディターのAIに課金して、インストール作業を代わりにやってもらうのがベストかもしれません。それか無料枠でいけるとこまでいくのも一つの手です。

Cursorでウェブサイト運営のメリットとデメリット

メリット面

大きなメリットは、GPT-5とかSonnetにGrokなど、各社の生成AIモデルを任意で選択可能なこと。

私はClaudeを使って記事を書いてたけど、画像生成ができないのと、日常的な使用に向いてない理由でちょっと悩んでいたことがありました。macにChatGPTがビルトインされると聞いて、そんならApple Intelligenceで使えるChatGPTが将来的にも(次はMチップのiPhoneにするから)ええなと乗り換えました。

ChatGPTで記事本文を書くのは、まぁまぁ変な文章を書きやすく、手直し作業が逆に時間かかるので苦手なんですよ。Claudeはほぼそれが無かったし、登場当時から日本語文章が得意だと評価が高いだけある記事を書いてくれます。

ならCursorでそこだけ使えば美味しいじゃないか、と思ったわけです。

デメリット面

デメリットは、コードを扱う以上、1文字のエラーも許さず融通が聞かないところ。記事本文はいいけど、フロントマターとか1文字抜けとか誤字をするだけで、エラーが出たり別の何かが生まれるなど、整える作業が増えること。

この辺はAIで一括処理可能だからいいけど、有料にしないと追いつけない量にはなりえます。

Hugoは静的HPだから、予約投稿ができないのも面倒ですね。もし実現するならサーバー上で制御をするか、該当時間にデプロイするような仕組みが欲しいから、未来の日付け設定するだけでいいWPが圧倒的に楽。

Instagramの告知と連携させて、ウェブコンテンツと連動させようと考えているなら、CMSのほうが楽だよなぁと。だから結局のところ、自分のニーズに合うプラットフォームを、自分で選択するのがベストですよ。

最後に:AIライティングのこれから

AIに記事を書かせるのは楽。無かった時代は、1文をひねり出すのに数時間かけることもあったけど、今は「これやっといて」から数秒で完成するようになりました。

楽なことは楽なんだけど、頼りすぎると「自分で書く能力」が衰えているなぁと感じる瞬間があります。だから日常的にジャーナルを書いて、頭の中をテキトーに文章としてアウトプットするようにしています。メモは紙とペンを使って、文字を忘れないようにしています。

最近、GenAIのことは「アウトソーシング」と、パートナーから考えを割り切るようにしました。

フリーランスの仕事依頼があるじゃないですか。そこに「こんなの書いて」と依頼すると、依頼者を選ぶ必要があるわけですよ。有料だから失敗したくないし、えぐいの当たることは回避したいから、その選別に時間と脳を使ってもし失敗したら。相手との連絡が折り合わなくてイライラしたら。

そう考えると、◯ンサーズに依頼するよりはAIに頼んだほうが早いよな、と考えられます。確実とは言い切れないけど、推敲を自分でする必要はどちらの方法でもあるから、短い時間で済むほうが楽だよなと思うわけです。

これから先は、AIでどこまで書いて許されるのかになりそうだなと考えられます。「君は何%が人間なんだい?」とかクローラーから聞かれるようになるのも嫌すぎる。