「非エンジニアにもできる」という言葉を信じた
AIを使い始めてしばらく経った頃、「Vibe Coding(バイブコーディング)」という言葉をよく見るようになりました。
AIに話しかけながらプログラムを作れる。
コードの意味を全部理解しなくても、動くものが作れる。
引きこもりでIT知識ゼロの私が、「はたしてこれが自分にもできるんだろうか」と思いながら、最初に触ったのは「Opal」というツールでした。
Opalで最初に感動した
Opalとは、日本語で「こういうアプリを作って」と伝えるだけで、ものの数十秒でアプリの雛形が出来あがってしまうサービスです(AI系スタートアップが提供しているノーコードライクなツールの一種です)。
実際に試してみたら……60点のアプリが数分で完成してしまいました。
びっくりしました。素直に感動しました。
「非エンジニアでも、AIを使えば何か作れる時代になったんだ」という実感を、初めて身をもって感じました。

🤖 マッド(技術担当)からの解説
Opalのようなツールは「LLM(大規模言語モデル)をフロントに出し、コード生成と実行環境を隠蔽している」構造だ。ユーザーが「こういうものが欲しい」と話しかけるだけで、バックエンドで自動的にコードが生まれ、即プレビューされる。まぁ、60点止まりなのはそこが限界だということも意味しているがな!カカカッ。
70点、80点を目指したら詰まった
Opalで60点のものが作れると、当然「もっと良くしたい」という欲が出ます。
でも、ここから全然うまくいかない。
細かい仕様を伝えても思い通りに動かない。Opalの自由度の限界という壁にぶつかりました。
そこで次に試したのが、ChatGPTの有料プランで使える「Code Interpreter(コードインタープリター)」という機能でした。これを使えば、もっと自由にプログラムを書いてもらえるらしい。
VS Codeという謎の環境に連れていかれた
Code Interpreterを使おうとしたら「VS Codeというエディタが必要です」と言われました。
「VS Code?」
全くわけのわからないツールでした。ファイルツリーって何?ターミナルって何?何を聞いても、AIが専門用語で返してくる。理解できないまま聞き返すと、会話の文脈がずれていってしまう。
最初の方は、本当に難しかった。
でも、数日かけてとにかくAIに言われた通りに動いていたら、ちょっとした形になってきました。

「動画から良いシーンを抜き出すアプリ」が動いた
最終的に作ったのは「動画の中からAIが良いシーンを自動判別して、写真として抜き出してくれるアプリ」です。
素人が。AIの助けを借りながら。3日ほどで。
動いた瞬間、涙が出ました(ほんとに)。
👩💼 愛ちゃん(マーケティング担当)からのツッコミ
ちょっと待って、泣いたの?本当に?……まあ、別にいいけど。でも実際、ゼロからなにかを動かせた瞬間の感動って、エンジニアでもそうじゃなくても同じよ。素直に喜びなさい。……ちょっとだけ認める。
気づいたこと
このとき私が学んだのは、「完全に理解しなくても、動かせる」ということでした。
最初は「コードの意味が全部わからないと怖い」と思っていました。でもAIがそこを補完してくれるなら、理解しながら進んでいけばいい。

Vibe Codingは、「思考をAIに委ねながら、人間はゴールを指示し続ける」という作業です。
完璧なプログラマーでなくても、「何が作りたいか」を言語化できる人間なら、意外と行けます。
まだまだ失敗の方が多い私ですが、あの「初めて動いた日」の感動があるから続けられています。
マイペースに、やっていきます。


コメント