Koder Dev
HomeBlogPosts
HomeBlogPosts
Koder dev blog

© 2026 All rights reserved.

プライバシーポリシーXnote
Koder
Koder@koder_dev·04月20日

これ見てから“AIエージェント”って言葉の解像度爆上がりした

AIエージェントって、ただの“賢いチャットボット”じゃなかった。 これはもうタスクを解くために動き回る、小さなAIのチームだった。 ユーザーの問いに応じて、検索したり、ツールを呼び出したり、記憶を参照したり。 しかもそれを全部、自分で判断してコントロールしてるっていうのが凄い。 「RAG」や「REACT」みたいな言葉は聞いたことあったけど、それがどう組み合わさって“動いてる”のか、初めてイメージがついた気がする。 特に印象的だったのが、AIが単体じゃなくて“連携”や“構成”で設計されてるという考え方。 今ってもう「どのAIを使うか」じゃなくて「どう組み合わせて動かすか」の時代なんだな…って、ちょっと背筋伸びた。 ちなみにこの動画、IBM Technologyのホワイトボード解説シリーズの1本なんだけど、図を描きながら話してくれるから理解しやすいし、長さもちょうどよくてテンポも最高。 AIまわりの仕組みに興味ある人は、このシリーズぜんぶ見て損ないと思う。

10min
投稿一覧へ90+

この投稿を見てる人はこちらの投稿も見てます👇

Koder
Koder@koder_dev·04月20日

え、S3のコストってそんなに削減できるの!?

Canvaがやってたクラウド最適化の話、正直レベル高すぎた。 というか「ちゃんと見直せばここまで変わるのか…」って驚いた。 Canvaって毎月500万ドル規模でS3使ってるんだけど、 データの90%がほとんどアクセスされてないことが判明。 そこでやったのが、S3 Storage Class Analysisを使ってアクセス頻度を可視化→Glacier Instant Retrievalに戦略的に移行。 しかも、オブジェクトサイズ別にコスト効果をシミュレーションして、移行対象を選んでいくという超冷静な設計。 結果、年間で約360万ドルのコスト削減。 しかも移行はたった2日で終わったらしい。かっこよすぎん? ストレージって「とりあえず全部S3に突っ込んどけ」ってなりがちだけど、 ちゃんとデータの性質を見極めて設計するってこういうことなんだなと。 これはインフラ系エンジニアだけじゃなく、SaaS運営してる人全員に見てほしい内容だった。

え、S3のコストってそんなに削減できるの!?
10min
Koder
Koder@koder_dev·05月04日

「redditが止まった日」

──世界屈指のアクセス数を誇る、アメリカ発の巨大掲示板サイト。 日本で言えば「Twitterと2ちゃんねるとQiitaを混ぜた」ような存在。 それが、2023年3月14日、約5時間(314分)、真っ白な画面しか返さなくなった... 原因は、Kubernetesのアップデートに潜んでいた小さなミス。 でもその裏には、複雑化したインフラと、"なんとなく積み上がってきた設計"のツケがあった。 redditはここ数年でgRPCやGraphQLを導入し、全文検索のために検索エンジンも刷新。 技術的にはめちゃくちゃ進化してたけど、ドキュメントが追いついていなかった。 ネットワークが詰まり、ノードが死に、復元手順は過去の環境用で、ログも追えず、 「もう全部ダメだ」ってなる一歩手前だった。 でも、エンジニアたちは手を止めなかった 壊れたものを一つひとつ手探りで直し、一度止まったクラスタを少しずつ息を吹き返させ、最後にはログと格闘しながら、全てを復旧させた。 この動画は、その障害対応の全記録と、そこから得られた学びを、静かに、でも力強く語ってる。 - バックアップは本当に動くのか? - 誰が何を知っているのか? - ドキュメントは未来の自分を助けてくれるのか? ただの障害じゃない これは、「チームとしての信頼」と「技術の積み重ね」が試された日の記録。 これはほんと、エンジニアなら一度は観ておくべき 明日は我が身、次の障害対応の登場人物は自分かもしれない

「redditが止まった日」
10min
Koder
Koder@koder_dev·04月20日

BigQueryの請求額、月100万ドルってマジかよ…

Shopifyのデータパイプラインで「このままリリースしたら月95万ドルかかるぞ…!」っていう衝撃の試算が出た話なんだけど、 最初に流したクエリがとんでもないスキャン量で、普通に使ったら破産レベルのコスト叩き出すところだったらしい。 「このままじゃ無理!!」ってなったところからの最適化ストーリーがめちゃくちゃ面白かった。 救世主になったのはテーブルのクラスタリング。 よく使うWHERE条件でデータを整理して、無駄なスキャンを回避するだけで、あの高額クエリがたった100MBちょっとのスキャンで済むようになったらしい。 他にも - SELECT *を避ける - パーティショニングを活用する - プレビュー機能で事前チェックする など、すぐ使える最適化テクも紹介されてて、地味に全部ありがたい。 結果、月100万ドル → 約1,300ドルっていう信じられないレベルのコストダウンを実現。 これぞリアルなデータエンジニアリングって感じだった。 そしてこの話、たった7分の動画にギュッと詰まってて最高にテンポもいい。BigQuery触ってる人も、クラウド請求額で冷や汗かいたことある人も、絶対見た方がいい。

BigQueryの請求額、月100万ドルってマジかよ…
10min