2 年生 1 コマ目

AI 議事録 Rimo でまとめたものです。AI が聞き間違ったりまとめ間違ったりする前提で参考にしてください。

決定事項

特になし

アクションアイテム

  • 学生は昼休み(13時15分再開)までにUnityプロジェクトのダウンロード、解凍、インポートを完了させる
  • プロジェクトがリゾルビングパッケージの状態になるまで進める

議論のポイント

自己紹介と最近の活動実績

  • 田中正吾先生がフリーランスとして21年目の活動を継続中(2004年から)
  • 最近の登壇活動:函館デベロッパーカンファレンス、IBM関連イベント
  • 海外登壇:オーランド(フロリダ)でのIBMイベントに参加
  • 技術相談、プロジェクトマネジメント支援、AI・XR・IoT関連の技術指導を実施
  • IBM チャンピオンとして継続的に活動中

Ollamaについての解説

  • Ollamaの特徴
    • ローカル環境で大規模言語モデル(LLM)を実行できるオープンソースソフトウェア
    • インターネット接続不要でAIを使用可能
    • プライバシーを保護しながらAI活用ができる
    • GUIによる簡単な操作が可能(以前はコマンドラインのみ)
  • 技術的な利点
    • API(localhost:11434/api)が標準で提供されている
    • OpenAI API互換性があり、他の技術との連携が容易
    • ストリーミング対応
    • 充実したドキュメント(Docs.Ollama)
  • データプライバシーの重要性
    • クラウドAI(ChatGPT、Geminiなど)はデータが外部に送信される
    • ローカルAIは手元でデータを完結できる
    • IoTやXRデバイスとの連携において、データ管理の観点で重要

モデルの選び方と種類

  • モデルのサイズと性能
    • 2B、3B、7B、32B、70Bなどの数値は概ねギガバイト単位のサイズ
    • サイズが大きいほど高性能だが、メモリ消費も大きい
    • 一般的なPCでは4B~6Bが限界、2B程度が実用的
  • 用途別モデル
    • チャット用:Granite 3.2/3.3 2B(今回使用)、Llama
    • コード生成特化:Code Llama、Qwen Coder
    • 画像認識:Vision対応モデル(Mistral、Llamaなど)
    • 翻訳特化モデル
    • 日本語対応:ELYZA、多言語対応モデル
  • モデルの入手とインストール
    • Ollamaのモデルライブラリから簡単にダウンロード可能
    • コマンド一つ、またはGUIで選択するだけでインストール
    • 多様なモデルがコミュニティによって提供されている

技術連携の可能性

  • 他技術との統合
    • Unity、3D、XR、IoTとの連携が容易
    • ローカルサーバーとして動作するため、Web技術との親和性が高い
    • Visual Studio Codeのローカルサーバーと同様の感覚で使用可能
  • AIエージェントへの応用
    • Mastraなどのライブラリを使用してAIエージェント構築が可能
    • ローカルLLMでエージェントを動かす実験も進行中
    • コード自動チェック、メンテナンス支援などの用途
  • コスト面のメリット
    • クラウドAPIは有料だが、Ollamaは無料
    • 学生のプロジェクトでプロトタイプ作成に最適
    • 自分のPCリソースのみで完結

技術の民主化と進化

  • 2024~2025年にかけてAI技術が急速に使いやすくなった
  • GUIの登場により非エンジニアも技術にアクセス可能に
  • 技術の標準化(OpenAI API互換など)により方言が減少
  • ドキュメントの充実により透明性が向上
  • 「土管」(インフラ)を整備する重要性

ハンズオン準備

  • Granite 3.2/3.3 2Bモデルのインストール確認
  • APIの動作確認(ブラウザでlocalhost:11434/api/versionにアクセス)
  • Unityプロジェクトのダウンロードと解凍
  • Unity Hubでプロジェクトをインポート
  • 昼休み中にプロジェクトのリゾルビング(パッケージ解決)を完了させる

授業開始と講師紹介

  • 田中正吾先生がフリーランスエンジニアとして21年目の経験を持つゲスト講師として登場し、2004年から活動を続けていることが紹介された
  • 学生は2年生でインターンシップを経験しており、働くことの実態を理解し始めている段階であることが確認された
  • フリーランスとしてサバイブすることの大変さと楽しみについて、確定申告を21回経験した実体験を交えて語られた
  • 前年度も同じ学生たちと授業を行っており、顔見知りの関係であるため自己紹介は簡略化された
  • 授業資料は前回と同じものを使用するが、現場での語りによって内容を変化させるスタイルで進行することが説明された

講師の実績とフリーランス活動の紹介

  • テクニカルサポートや大学での技術アドバイスを日常的に行っており、特にプロジェクトマネジメントやスケジュール管理の支援が効果的であることが強調された
  • AI登壇やIoTデバイスの操作、函館でのデベロッパーカンファレンスへの登壇など、多様な技術領域での活動が紹介された
  • IBM チャンピオンとして継続的に活動し、IBMのイベントでの登壇や技術相談会を実施していることが報告された
  • XR技術とUnityの基礎授業を他の教育機関で担当し、WEBスキルとXRデバイスを連携させる技術指導を行っている
  • オーランド(フロリダ)でのIBMイベントに海外登壇し、ユニバーサルスタジオ貸切パーティーなど大規模な技術イベントに参加した経験が共有された
  • ライブデモを重視する姿勢が強調され、英語環境でもデモ中心のプレゼンテーションで手応えを感じていることが語られた

生成AIとローカルLLMの最新動向

  • ローカルで動作する生成AIの重要性が増しており、IoTやXR技術との連携が容易になってきていることが説明された
  • 2024年から2025年にかけてAI技術が急速に進化し、使い続けることで良い面も悪い面も理解できるようになったことが共有された
  • 新しい技術を組み合わせることで社会の見え方が変わってきており、実際に手を動かして実感することの重要性が強調された
  • プロトタイピングの重要性は変わらず、とりあえず作ってみることでしか分からない部分が多いことが指摘された
  • 2024年12月時点でのAI利用経験から、継続的な使用によって技術の理解が深まることが実例として語られた

リアクションアプリと質問システムの動作確認

  • 授業ページのリンクからリアクションアプリにアクセスし、スマホとの連動確認が行われた
  • QRコードを使用してリアクションアプリをダウンロードし、リアルタイムで反応を共有できるシステムが紹介された
  • 前回の授業でも使用したシステムで、授業後も学生が継続的にリアクションを送っていたエピソードが共有された
  • 質問受付フォームについても後ほど使用することが予告され、双方向のコミュニケーションツールとして活用される予定が示された
  • 録画に加えて録音も実施し、AI議事録機能を使って授業内容を自動まとめする試みが説明された

Ollamaの概要とローカルAIの利点

  • Ollamaはローカル環境で大規模言語モデルを簡単に実行できるオープンソースソフトウェアであることが紹介された
  • インターネット接続不要でAIを使用できるため、プライバシーを保ちながら活用できる点が最大の利点として強調された
  • クラウドAIサービスでは情報が外部に送信されるリスクがあるが、Ollamaではデータが手元に留まることが説明された
  • IoTデバイスやXRデバイスと同様に、データの操縦権を自分で持てることの重要性が技術者の観点から語られた
  • ローカルでAIを動かすことで、従来のエンジニアリングの考え方と生成AI技術を統合できる環境が整ってきたことが指摘された

Ollamaの特徴と使いやすさ

  • ローカル実行が可能で、インターネット接続なしでAIモデルが動作することが確認された
  • 当初はコマンドライン操作のみだったが、3年前の夏頃にGUI(グラフィカルユーザーインターフェイス)が追加され、操作性が大幅に向上した
  • モデルのダウンロードや実行が視覚的に行えるようになり、黒い画面での操作が不要になったことで、非エンジニアも扱いやすくなった
  • 多様なモデルに対応しており、チャット、画像認識、音声認識など様々な用途に特化したモデルが利用可能であることが説明された
  • APIが完備されており、localhost:11434でAPIサーバーが自動起動し、CLI、GUI、APIのすべてで同じ機能が使えることが強調された
  • 機械学習の基礎から構築する場合は100個以上のパーツが必要だが、Ollamaは1つのピースで動作する手軽さが魅力として紹介された

OllamaのドキュメントとAPI仕様

  • Ollamaの公式ドキュメントが非常に充実しており、英語だが分かりやすく整備されていることが評価された
  • クイックスタートやコマンドの使い方、データのやり取り方法などが明確に文書化されている点が強調された
  • ウェブサーチ機能など、ChatGPTで提供される最新機能もOllamaで統一的に使えるよう追従していることが説明された
  • システムリクワイアメント(動作環境)も明記されており、どのWindowsバージョンで動作するかなど透明性が高いことが評価された
  • モデルファイルを自分で作成してOllamaに組み込むこともでき、従来の機械学習技術との互換性も保たれていることが紹介された
  • 透明性の重要性が強調され、よく分からないツールを使わされる怖さと比較して、Ollamaのドキュメント整備が信頼性を高めていることが語られた

Ollama APIリファレンスと実践的な使用方法

  • APIリファレンスには http://localhost:11434/api でアクセスでき、Ollama の全機能が API として利用可能であることが示された
  • モデルを決めてプロンプト(話しかける言葉)を入れると動作する基本的な仕組みが解説された
  • 認証は素の状態ではかからず、ローカルで自由に使える設計になっていることが確認された
  • ストリーミング機能にも対応しており、ChatGPTのように返答が逐次表示される仕組みも実装可能であることが説明された
  • 今回のハンズオンではストリーミングではなく、完全な返答を一度に受け取る方法を使用する予定であることが予告された
  • ブラウザから直接APIバージョンを確認する実習が行われ、Ollamaが起動してAPIを受け入れている状態を学生が体験した

生成AI技術の民主化と学習機会

  • 生成AI登場以前は技術が落ち着き気味で、既存技術の便利な使い方を伝える段階だったことが振り返られた
  • 生成AIの登場により、誰もがスタートラインが同じ状態で新しい技術に挑戦できる環境が生まれたことが強調された
  • 2024年から2025年にかけて、初期の「よく分からない謎技術」から「みんなが便利に使える」状態への進化が観察された
  • グラフィカルユーザーインターフェイスの導入により、黒い画面を扱いづらいエンジニアや非エンジニアも技術にアクセスできるようになった
  • 方言(各社独自の仕様)が多かった状態から、APIやモデル探索の場所が統一されることで、誰でも同じように技術を使えるようになってきた
  • 学生にとって特に重要なのは、ChatGPT APIなどの有料サービスと異なり、Ollamaは無料でローカル動作するため、プロトタイプ制作に最適であることが指摘された

Ollamaモデルライブラリの多様性

  • 日進月歩で新しいモデルが登場するため、メジャーなものがOllamaに登場するまで試さない方針が講師から語られた
  • GitHubで個別にビルドする手間を避け、Ollamaライブラリに追加されたモデルを使うことで効率的に最新技術を試せることが説明された
  • Vision(視覚)、Tool(ツール)、Thinking(思考)など、用途別に特化したモデルが分類されていることが紹介された
  • Llamaシリーズには3B、7B、32B、70Bなど様々なサイズがあり、数字は概ねギガバイト単位のモデルサイズを示すことが解説された
  • Granite 3.2 2Bは約0.7ギガバイトで動作し、今回のハンズオンで使用するモデルとして紹介された
  • 賢いモデルほど容量が大きく、パソコンのメモリを大量に消費するため、16GBメモリのPCでは20GB以上のモデルは動作不可能であることが警告された
  • コード生成に特化したモデル(Code Llama、Qwen Codeなど)も存在し、自然言語でのやり取りを省いて高速にコード生成できることが紹介された

ツールズ機能とローカルLLMの実用性

  • AIの返答を単なる文字列ではなく、JSONデータなど構造化された形式で受け取れるツールズ機能が説明された
  • 天気情報を例に、「晴れ」という言葉ではなく数値データ(晴れ=1、曇り=2など)で返すことでシステム組み込みが容易になることが解説された
  • ツールズ機能は2024年夏頃から各社で対応が進み、GraniteやLlamaなども順次サポートを開始したことが報告された
  • ツールズ非対応の場合は自然言語の解析が必要になり、システム開発が非常に困難になることが指摘された
  • ローカルLLMの実用例として、GitHubにコードをアップする前にローカルでコードチェックを行うことで、外部にデータを送らずに済む利点が挙げられた
  • IBMがCOBOLやJava特化のコード生成モデルを提供しており、レガシーシステムのメンテナンスに活用できる可能性が示された
  • OpenAI互換性により、AI エージェント開発でもOllama APIを使用でき、TypeScriptで記述可能なMastraなどのライブラリでローカルLLMエージェントが構築できることが紹介された

モデルの選び方と日本語対応

  • チャット、コード生成、翻訳など、用途に応じてモデルを選択することの重要性が説明された
  • 日本語対応度は以前ほど気にする必要がなく、Graniteなど多くのモデルがマルチ言語対応していることが報告された
  • 今回のハンズオンで「こんにちは」と日本語で話しかけた際に、Graniteが自然に日本語で返答したことが実例として挙げられた
  • Elyza(エライザ)など、日本語に特化したモデルも存在し、より綺麗な日本語応答が必要な場合に選択肢となることが紹介された
  • GitHubリポジトリのユーザー名がモデル名に含まれるケースもあり、個人がカスタマイズしたモデルも利用可能であることが説明された
  • DeepSeekなどOCRに特化したモデルも存在し、特定タスクに最適化されたモデルを選ぶことで効率的な処理が可能になることが示された

Unityプロジェクトのセットアップ

  • 昼食前の時間を利用して、UnityプロジェクトのダウンロードとUnity Hubでの読み込みまでを完了させることが目標として設定された
  • プロジェクトのビルドには時間がかかるため、昼食中にバックグラウンドで処理を進める戦略が説明された
  • GitHubからZIPファイルをダウンロードし、デスクトップに解凍する手順が実演された
  • Unity Hubで「Add project from disk」を選択し、解凍したプロジェクトフォルダ(Assets、Packages、ProjectSettingsを含むもの)を開く手順が指導された
  • バージョンの違いによりリビルドが必要になる可能性があるが、基礎的な仕組みのため大きなバグは発生しないと予想された
  • 「Resolving packages」の状態で昼食に入り、13時15分に再開することが学生に伝えられた
  • インストール途中でエラーが出た学生に対し、個別サポートが行われ、ファイルパスの確認やバージョン変更などの対処法が提示された

results matching ""

    No results matching ""