配信

ビットレートと画質の関係:配信・収録での適切な設定値

ビットレートとは ビットレート(bit rate)は、1秒間に送受信・処理するデータ量のことです。単位はbps(bits per second)またはMbps(メガビット毎秒)です。 配信・録画の文脈では「映像の情報量」を表し、高いほど画質が良くなりますが、ネットワーク帯域や録画ファイルサイズも大きくなります。 ビットレートと画質の関係 同じ解像度・フレームレートでも、ビットレートが低すぎると画質が落ちます。動きの速いシーン(スポーツ・ゲーム)はビットレートをより多く必要とします。 配信プラットフォーム別の推奨値 YouTube Live 解像度 フレームレート 推奨ビットレート 1080p 60fps 4.5〜9Mbps 1080p 30fps 3〜6Mbps 720p 60fps 2.25〜6Mbps 720p 30fps 1.5〜4Mbps 480p 30fps 0.5〜2Mbps Twitch 一般ユーザー:最大6,000kbps が実用上の上限 Partnerには最大8,500kbpsまで解放されている場合あり(2022年〜) 推奨:3,500〜6,000kbps ニコニコ生放送 最大6,000kbps(プレミアム会員・チャンネル) 一般:3,000kbps程度 回線速度に合わせた設定 重要:ビットレートはアップロード速度の50〜70%以内に設定する アップロード速度10Mbpsの場合、5〜7Mbpsに設定します。ギリギリに設定すると、回線の一時的な揺れで配信が途切れるリスクが高くなります。 StarLinkや4G回線の場合、アップロード速度が変動しやすいため、さらに余裕を持たせて50%以下にするのが安全です。 映像ビットレート vs 音声ビットレート 配信のビットレートは映像と音声に分かれます。 映像: 3,000〜6,000kbps(大部分を占める) 音声: 128〜320kbps(AAC) 音声は320kbpsもあれば十分で、それ以上上げても人間には聞き分けられません。予算(帯域)は映像に割り振るのが合理的です。 CBR vs VBR CBR(固定ビットレート) 常に一定のビットレートで送信します。配信ではCBRを使うのが基本です。配信プラットフォームがCBRを前提に設計されているためです。 VBR(可変ビットレート) 映像の複雑さに応じてビットレートを変動させます。動画ファイルの録画(アーカイブ)では効率が良いですが、ライブ配信には不向きです。 OBSでの設定場所 設定 → 出力 → 配信タブ エンコーダ:x264 またはNVENC H.264 レート制御:CBR ビットレート:回線速度に応じて設定(例:6000kbps) まとめ ビットレートの設定は「回線速度の50〜70%以内」「プラットフォームの推奨値以内」「CBRを使う」の3点を守れば問題ありません。困ったら1080p 30fps / 4,000〜6,000kbpsが多くの現場で使える無難な設定です。 ...

2026年5月8日 · 1 分 · evcast
配信

RTMP・SRT・NDIの違い:配信プロトコルの選び方

なぜプロトコルを理解する必要があるか 同じ映像を送るにも、どの「通信手順(プロトコル)」を使うかによって遅延・安定性・必要な機材が変わります。用途に合ったプロトコルを選ばないと、不必要な遅延が生じたり、不安定な配信になったりします。 RTMP(Real-Time Messaging Protocol) Adobe が開発した配信プロトコルで、YouTube・Twitch・ニコニコ生放送など主要プラットフォームの標準です。 仕様: TCPベース(パケットロス時に再送する) ポート:1935(HTTPSで443も使用可能) 暗号化:RTMPSで対応 メリット: OBSがデフォルトで対応 主要配信プラットフォームがほぼ対応 設定がシンプル デメリット: 遅延が5〜30秒と大きい パケットロスが多い環境(不安定な回線)では途切れやすい 向いている用途: YouTube Live・Twitchへの一般的なライブ配信 双方向性が不要な講演・セミナー・イベント配信 SRT(Secure Reliable Transport) Haivisionが開発し、現在はオープンソースとして普及している低遅延プロトコルです。不安定なネットワークでも安定した配信ができます。 仕様: UDPベース+独自の再送制御 ポート:任意(デフォルト9000等) AES暗号化対応 メリット: 遅延が0.5〜1秒と小さい パケットロスを自動補正(FEC・ARQ) 暗号化で安全に送れる デメリット: RTMP対応プラットフォームにそのまま送れない(変換サーバーが必要) 設定がRTMPより複雑 向いている用途: StarLinkや4G回線など不安定な回線での配信 会場内の映像を別拠点の配信サーバーに送る 低遅延が必要な用途(競技・競馬・スポーツ中継等) NDI(Network Device Interface) NewTekが開発した、ネットワーク内の映像伝送プロトコルです。インターネット配信ではなく、会場内のLANで機材間を繋ぐために使います。 仕様: IP(LAN)ベース 帯域:1Gbps スイッチを推奨(NDI Full 1080p30fpsで約125Mbps) ソフトウェアで無料で使える(NDI Tools) メリット: 遅延がほぼゼロ(LAN内) ケーブルが不要(LANケーブル1本で映像・音声・制御) OBSが対応(NDI Toolsプラグインが必要) デメリット: LANの帯域を大量に消費する インターネット越しの送信には適さない 対応機器が必要 向いている用途: 会場内のカメラ映像をOBSに取り込む PTZカメラ・スイッチャーとOBSの連携 複数のPCで映像を共有する 三者の比較 RTMP SRT NDI 主な用途 プラットフォーム配信 拠点間伝送 LAN内伝送 遅延 5〜30秒 0.5〜1秒 ほぼゼロ 安定性(不安定回線) 低い 高い - 使用範囲 インターネット インターネット LAN内 設定難易度 低い 中 低い 現場での組み合わせ例 カメラ → NDI → OBS → RTMP → YouTube: 会場内はNDI、外部配信はRTMP カメラ → OBS → SRT → 配信サーバー → RTMP → YouTube: 不安定回線ではSRTで中継サーバーに送りRTMPで配信 まとめ プラットフォームへの配信はRTMP、不安定な回線での拠点間伝送はSRT、LAN内の映像伝送はNDIを使うのが基本です。 ...

2026年5月8日 · 1 分 · evcast
配信

ライブ配信の基礎知識:エンコード・プロトコル・遅延の仕組み

ライブ配信の全体像 ライブ配信とは、映像・音声をリアルタイムで視聴者に届ける仕組みです。全体の流れはこうなっています。 カメラ・マイク ↓ エンコーダー(OBS等) ├── 映像・音声を圧縮 └── 配信プロトコルで送信 ↓ 配信サーバー(YouTube・Twitch等) ↓ 視聴者のデバイスでデコード・再生 エンコードとは カメラからの映像は非常にデータ量が多く、そのまま送信するとネットワーク帯域が足りません。エンコードとは映像・音声を圧縮してデータ量を減らす処理です。 映像コーデック: H.264(AVC): 最も普及している。互換性が高い。配信の標準 H.265(HEVC): H.264より約半分のデータ量で同画質。ただし対応機器が限られる AV1: 次世代コーデック。YouTubeが対応を進めている 配信では現在もH.264が最も安定して使えます。 音声コーデック: AAC: 配信の標準。YouTube・Twitchともに対応 MP3: 古い形式。配信よりも音楽ファイル向け Opus: 低遅延に強い。WebRTCで使われる 配信プロトコルの種類 RTMP(Real-Time Messaging Protocol) YouTubeやTwitchへの配信で標準的に使われるプロトコルです。OBSの「配信」設定でそのまま使えます。 ポート: TCP 1935(デフォルト) 遅延: 数秒〜10秒程度 安定性: 普及しており、問題が起きにくい 向いている用途: YouTube Live・Twitchへの一般的な配信 SRT(Secure Reliable Transport) 不安定なネットワーク環境でも安定した配信ができる低遅延プロトコルです。 遅延: 0.5〜1秒程度 特徴: パケットロスを自動補正、暗号化対応 向いている用途: StarLinkや不安定回線での配信、長距離伝送 NDI(Network Device Interface) 同一ネットワーク内での映像伝送に使うプロトコルです。 遅延: ほぼゼロ(LAN内) 特徴: カメラ・スイッチャー・PCをLANで繋げる 向いている用途: 会場内のカメラ映像をOBSに取り込む ビットレートと画質 ビットレートは1秒間に送るデータ量(bps/Mbps)を表します。高いほど画質が良いですが、ネットワーク帯域が必要です。 解像度 フレームレート 推奨ビットレート 1080p 60fps 6〜9Mbps 1080p 30fps 4〜6Mbps 720p 30fps 2〜4Mbps 480p 30fps 1〜2Mbps 現場での判断基準: アップロード速度の**50〜70%**以内に設定するのが安全です。10Mbpsのアップロード速度があれば、5〜7Mbpsで配信できます。 ...

2026年5月8日 · 1 分 · evcast

PA音声を配信ミックスに分岐する方法:会場音響と配信音を分ける設計

PA音と配信音は別物 イベントのPA音声をそのまま配信に流すと、多くの場合うまくいきません。 会場スピーカー向けのミックスは「その場にいる人に届けること」を前提に作られています。一方、配信の音声は「スピーカーのない視聴者の耳に直接届く」ものです。この前提の違いから、以下のような問題が起きます。 会場の残響(リバーブ)が配信音に乗って聞き取りにくくなる スピーカーのモニター音がマイクに回り込んでいる PAのフェーダーバランスが視聴者には不自然(会場補正がかかっている) メインフェーダーの操作が配信音量にも直接影響する 配信用に別系統のミックスを作るのが理想です。完全分離が難しい場合でも、少なくとも「配信専用の音量調整ができる経路」を設けることで安定します。 分岐の基本パターン パターン1:AUX送りで分岐 最もシンプルで広く使われる方法です。ミキサーのAUXバスを「配信送り」として使います。 各マイク・音源 ↓ チャンネル入力 ミキサー ├── メインアウト → パワーアンプ → 会場スピーカー └── AUX OUT → 配信PC(またはVR-6HD等のAVミキサー) 設定のポイント: AUXをプリフェーダー(PRE FADER)に設定する → PAフェーダーの操作が配信レベルに影響しなくなる 各チャンネルのAUXつまみで「配信に送る量」を個別に調整できる 会場PA用EQとは独立して配信音のバランスを作れる(デジタルミキサーの場合) デメリット: アナログミキサーではAUX系統数に制限がある(2〜4系統が一般的) モニター送りと配信送りが同じAUXバスを競合する場合がある パターン2:ダイレクトアウト(インサート送り)で分岐 各チャンネルのダイレクトアウトから信号を取り出し、配信用ミキサーに送る方法です。 各マイク ↓ ミキサー(チャンネルのダイレクトアウト) ├── メインミックス → 会場スピーカー └── ダイレクトアウト(プリEQ / プリフェーダー)→ 配信専用ミキサー ↓ 配信PC 特徴: PA側のEQ・エフェクトの影響を受けない「生」の信号が取れる 配信ミキサー側で完全独立したミックスが作れる 規模の大きいイベントや本格的な収録に適している デメリット: 配信専用のミキサーや追加機材が必要になる 設置・接続が複雑になる パターン3:AVミキサーを中継に使う Roland VR-6HD のように音声ミキサーを内蔵したAVミキサーをPA系統と配信の間に挟む方法です。 PAミキサーのAUX OUT(配信送り) ↓ アナログケーブル(XLRまたはTRS) Roland VR-6HD(LINE IN) ├── PA音声 + カメラ映像を統合 └── USB-C → 配信PC(OBS) 特徴: ...

2026年5月8日 · 1 分 · evcast