Zugriff auf Front- und Rück-Kameras mit getUserMedia() von JavaScript

Einführung

Mit HTML5 kam die Einführung von APIs mit Zugriff auf die Geräte-Hardware, einschließlich der API MediaDevices. Diese API ermöglicht den Zugriff auf Medieneingabegeräte wie Audio und Video.

Mit Hilfe dieser API können Entwickler auf Audio- und Videogeräte zugreifen, um Live-Video-Feeds zu streamen und im Browser anzuzeigen. In diesem Tutorial greifen Sie über das Gerät des Benutzers auf den Video-Feed zu und zeigen es mit der Methode getUserMedia im Browser an.

Die API getUserMedia verwendet die Medieneingabegeräte, um einen Medien-Stream zu erstellen. Dieser Medien-Stream enthält die angeforderten Medientypen, egal ob Audio oder Video. Mit dem von der API zurückgegebenen Stream können Video-Feeds im Browser angezeigt werden, wobei dies für die Echtzeit-Kommunikation im Browser nützlich ist.

Bei gemeinsamer Verwendung mit der API MediaStream Recording können Sie Mediendaten aufzeichnen und speichern, die im Browser erfasst wurden. Diese API funktioniert wie die übrigen neu eingeführten APIs nur mit sicherer Herkunft, aber sie funktioniert auch für localhost– und Datei-URLs.

Voraussetzungen

  • Grundkenntnisse in JavaScript. Wenn JavaScript neu für Sie ist, probiere Sie die Reihe Codieren in JavaScript aus.

In diesem Tutorial werden zunächst Konzepte erklärt und Beispiele mit Codepen demonstriert. Im letzten Schritt erstellen Sie einen funktionierenden Video-Feed für den Browser.

Schritt 1 — Überprüfen der Geräteunterstützung

Zuerst erfahren Sie, wie Sie überprüfen können, ob der Browser des Benutzers die API mediaDevices unterstützt. Diese API ist innerhalb der Navigator-Schnittstelle vorhanden und enthält den aktuellen Status und die Identität des Benutzeragenten. Die Überprüfung wird mit dem folgenden Code durchgeführt, der in Codepen eingefügt werden kann:

if ('mediaDevices' in navigator && 'getUserMedia' in navigator.mediaDevices) {   console.log("Let's get this party started") } 

Zuerst wird geprüft, ob die API mediaDevices innerhalb des navigator vorhanden ist und dann wird geprüft, ob die API getUserMedia innerhalb der mediaDevices verfügbar ist. Wenn dies true zurückgibt, können Sie beginnen.

Schritt 2 — Anfordern der Benutzerberechtigung

Nachdem Sie die Unterstützung des Browsers für getUserMedia bestätigt haben, müssen Sie die Berechtigung zur Verwendung der Medieneingabegeräte auf dem Benutzeragenten anfordern. Normalerweise wird, nachdem ein Benutzer die Berechtigung erteilt hat, ein Promise zurückgegeben, das zu einem Medien-Stream aufgelöst wird. Dieses Promise wird nicht zurückgegeben, wenn die Berechtigung vom Benutzer verweigert wird, wodurch der Zugriff auf diese Geräte blockiert wird.

Fügen Sie die folgende Zeile in Codepen ein, um die Berechtigung anzufordern:

navigator.mediaDevices.getUserMedia({video: true}) 

Das Objekt, das als Argument für die Methode getUserMedia bereitgestellt wurde, wird als constraints (Beschränkungen) bezeichnet. Dadurch wird festgelegt, für welche der Medieneingabegeräte Sie Zugriffsberechtigungen anfordern. Wenn das Objekt beispielsweise audio: true enthält, wird der Benutzer aufgefordert, Zugriff auf das Audio-Eingabegerät zu gewähren.

Schritt 3 — Verstehen von Medienbeschränkungen

Dieser Abschnitt behandelt das allgemeine Konzept von constraints. Das Objekt constraints ist ein MediaStreamConstraints-Objekt, das die anzufordernden Medientypen und die Anforderungen jedes Medientyps angibt. Mit dem Objekt constraints können Sie Anforderungen für den angeforderten Stream angeben, wie beispielsweise die Auflösung des zu verwendenden Streams (front, back).

Sie müssen entweder audio oder video angeben, wenn Sie die Anfrage stellen. Ein NotFoundError wird zurückgegeben, wenn die angeforderten Medientypen im Browser des Benutzers nicht gefunden werden können.

Wenn Sie beabsichtigen, einen Video-Stream mit einer Auflösung von 1280 × 720 anzufordern, können Sie das Objekt constraints so aktualisieren, dass es wie folgt aussieht:

{   video: {     width: 1280,     height: 720,   } } 

Mit dieser Aktualisierung versucht der Browser, die angegebenen Qualitätseinstellungen für den Stream zu übernehmen. Wenn das Videogerät diese Auflösung nicht liefern kann, gibt der Browser andere verfügbare Auflösungen zurück.

Um sicherzustellen, dass der Browser eine Auflösung zurückgibt, die nicht niedriger als die vorgegebene Auflösung ist, müssen Sie die Eigenschaft min verwenden. Nachfolgend wird gezeigt, wie Sie das Objekt constraints aktualisieren können, um die Eigenschaft min einzuschließen:

{   video: {     width: {       min: 1280,     },     height: {       min: 720,     }   } } 

Dadurch wird sichergestellt, dass die zurückgegebene Stream-Auflösung mindestens 1280 × 720 beträgt. Wenn diese Mindestanforderungen nicht erfüllt werden kann, wird das Promise mit einem OverconstrainedError abgelehnt.

In einigen Fällen haben Sie eventuell Bedenken hinsichtlich der Datenspeicherung und möchten, dass der Stream eine festgelegte Auflösung nicht überschreitet. Dies kann sich als nützlich erweisen, wenn der Benutzer einen begrenzten Datenplan verwendet. Um diese Funktionalität zu aktivieren, aktualisieren Sie das Beschränkungsobjekt, damit es ein Feld max enthält:

{   video: {     width: {       min: 1280,       max: 1920,     },     height: {       min: 720,       max: 1080     }   } } 

Mit diesen Einstellungen stellt der Browser sicher, dass der zurückgegebene Stream nicht unter 1280 × 720 liegt und 1920 × 1080 nicht überschreitet.

Andere Begriffe, die verwendet werden können, sind exact und ideal. Die Einstellung ideal wird typischerweise zusammen mit den Eigenschaften min und max verwendet, um die bestmögliche Einstellung zu finden, die den idealen Werten am nächsten kommt.

Sie können die Beschränkungen zur Verwendung des Schlüsselworts ideal aktualisieren:

{   video: {     width: {       min: 1280,       ideal: 1920,       max: 2560,     },     height: {       min: 720,       ideal: 1080,       max: 1440     }   } } 

Um den Browser anzuweisen, die vordere und hintere (bei mobilen Geräten) Kamera von Geräten verwenden, können Sie eine Eigenschaft facingMode im Objekt video angeben:

{   video: {     width: {       min: 1280,       ideal: 1920,       max: 2560,     },     height: {       min: 720,       ideal: 1080,       max: 1440     },     facingMode: 'user'   } } 

Diese Einstellung verwendet die nach vorn gerichtete Kamera jederzeit bei allen Geräten. Um die Rückseitenkamera von mobilen Geräten zu verwenden, können Sie die Eigenschaft facingMode zu environment ändern.

{   video: {     ...     facingMode: {       exact: 'environment'     }   } } 

Schritt 4 — Verwenden der Methode enumerateDevices

Wird die Methode enumerateDevices aufgerufen, gibt sie alle verfügbaren Eingabemediengeräte zurück, die auf dem PC des Benutzers verfügbar sind.

Mit der Methode können Sie den Benutzern Optionen zur Verfügung stellen, welches Eingabemediengerät für das Streaming von Audio- oder Videoinhalten verwendet werden soll. Diese Methode gibt ein Promise aufgelöst an ein Array MediaDeviceInfo zurück, das Informationen zu jedem Gerät enthält.

Ein Beispiel für die Verwendung dieser Methode wird im nachstehenden Ausschnitt gezeigt:

async function getDevices() {   const devices = await navigator.mediaDevices.enumerateDevices(); } 

Eine Beispielantwort für jedes der Geräte würde wie folgt aussehen:

{   deviceId: "23e77f76e308d9b56cad920fe36883f30239491b8952ae36603c650fd5d8fbgj",   groupId: "e0be8445bd846722962662d91c9eb04ia624aa42c2ca7c8e876187d1db3a3875",   kind: "audiooutput",   label: "", } 

Anmerkung: Ein Label wird nur dann zurückgegeben, wenn ein verfügbarer Stream verfügbar ist oder wenn der Benutzer Zugriffsberechtigungen für Geräte erteilt hat.

Schritt 5 — Anzeigen des Video-Streams im Browser

Sie haben den Prozess der Anfrage und des Zugriffs auf die Mediengeräte durchlaufen, Einschränkungen für die erforderlichen Auflösungen konfiguriert und die Kamera ausgewählt, die Sie für die Videoaufzeichnung benötigen.

Nach all diesen Schritten wollen Sie zumindest sehen, ob der Stream anhand der konfigurierten Einstellungen bereitgestellt wird. Um dies sicherzustellen, verwenden Sie das Element <video> zur Anzeige des Video-Streams im Browser.

Wie bereits erwähnt, gibt die Methode getUserMedia ein Promise zurück, das in einen Stream aufgelöst werden kann. Der zurückgegebene Stream kann mit der Methode createObjectURL in eine Objekt-URL konvertiert werden. Diese URL wird als Videoquelle festgelegt.

Sie werden eine kurze Demo erstellen, bei der wir den Benutzer mit der Methode enumerateDevices aus der Liste der verfügbaren Videogeräte auswählen lassen.

Dies ist eine Methode navigator.mediaDevices. Sie listet die verfügbaren Mediengeräte wie Mikrofone und Kameras auf. Sie gibt ein auflösbares Promise an ein Array von Objekten zurück, das die verfügbaren Mediengeräte detailliert auflistet.

Erstellen Sie eine Datei index.html und aktualisieren Sie den Inhalt mit dem nachstehenden Code:

index.html

<!doctype html> <html lang="en"> <head>     <meta charset="UTF-8">     <meta name="viewport"           content="width=device-width, user-scalable=no, initial-scale=1.0, maximum-scale=1.0, minimum-scale=1.0">     <meta http-equiv="X-UA-Compatible" content="ie=edge">     <link rel="stylesheet" href="https://stackpath.bootstrapcdn.com/bootstrap/4.1.3/css/bootstrap.min.css">     <link rel="stylesheet" href="style.css">     <title>Document</title> </head> <body> <div class="display-cover">     <video autoplay></video>     <canvas class="d-none"></canvas>      <div class="video-options">         <select name="" id="" class="custom-select">             <option value="">Select camera</option>         </select>     </div>      <img class="screenshot-image d-none" alt="">      <div class="controls">         <button class="btn btn-danger play" title="Play"><i data-feather="play-circle"></i></button>         <button class="btn btn-info pause d-none" title="Pause"><i data-feather="pause"></i></button>         <button class="btn btn-outline-success screenshot d-none" title="ScreenShot"><i data-feather="image"></i></button>     </div> </div>  <script src="https://unpkg.com/feather-icons"></script> <script src="script.js"></script> </body> </html> 

Im obigen Ausschnitt haben Sie die von Ihnen benötigten Elemente und einige Steuerelemente für das Video eingerichtet. Außerdem ist eine Schaltfläche für die Aufnahme von Screenshots des aktuellen Video-Feeds enthalten.

Lassen Sie uns diese Komponenten ein wenig stylen.

Erstellen Sie eine Datei style.css und kopieren Sie die folgenden Stile in sie. Bootstrap wurde hinzugefügt, um die Menge an CSS zu reduzieren, die Sie schreiben müssen, um die Komponenten in Gang zu bringen.

style.css

.screenshot-image {     width: 150px;     height: 90px;     border-radius: 4px;     border: 2px solid whitesmoke;     box-shadow: 0 1px 2px 0 rgba(0, 0, 0, 0.1);     position: absolute;     bottom: 5px;     left: 10px;     background: white; }  .display-cover {     display: flex;     justify-content: center;     align-items: center;     width: 70%;     margin: 5% auto;     position: relative; }  video {     width: 100%;     background: rgba(0, 0, 0, 0.2); }  .video-options {     position: absolute;     left: 20px;     top: 30px; }  .controls {     position: absolute;     right: 20px;     top: 20px;     display: flex; }  .controls > button {     width: 45px;     height: 45px;     text-align: center;     border-radius: 100%;     margin: 0 6px;     background: transparent; }  .controls > button:hover svg {     color: white !important; }  @media (min-width: 300px) and (max-width: 400px) {     .controls {         flex-direction: column;     }      .controls button {         margin: 5px 0 !important;     } }  .controls > button > svg {     height: 20px;     width: 18px;     text-align: center;     margin: 0 auto;     padding: 0; }  .controls button:nth-child(1) {     border: 2px solid #D2002E; }  .controls button:nth-child(1) svg {     color: #D2002E; }  .controls button:nth-child(2) {     border: 2px solid #008496; }  .controls button:nth-child(2) svg {     color: #008496; }  .controls button:nth-child(3) {     border: 2px solid #00B541; }  .controls button:nth-child(3) svg {     color: #00B541; }  .controls > button {     width: 45px;     height: 45px;     text-align: center;     border-radius: 100%;     margin: 0 6px;     background: transparent; }  .controls > button:hover svg {     color: white; } 

Der nächste Schritt besteht darin, der Demo Funktionalität hinzuzufügen. Mit der Methode enumerateDevices erhalten Sie die verfügbaren Videogeräte und legen sie als Optionen innerhalb des Elements „select“ fest. Erstellen Sie eine Datei namens script.js und aktualisieren Sie sie mit dem folgenden Ausschnitt:

script.js

feather.replace();  const controls = document.querySelector('.controls'); const cameraOptions = document.querySelector('.video-options>select'); const video = document.querySelector('video'); const canvas = document.querySelector('canvas'); const screenshotImage = document.querySelector('img'); const buttons = [...controls.querySelectorAll('button')]; let streamStarted = false;  const [play, pause, screenshot] = buttons;  const constraints = {   video: {     width: {       min: 1280,       ideal: 1920,       max: 2560,     },     height: {       min: 720,       ideal: 1080,       max: 1440     },   } };  const getCameraSelection = async () => {   const devices = await navigator.mediaDevices.enumerateDevices();   const videoDevices = devices.filter(device => device.kind === 'videoinput');   const options = videoDevices.map(videoDevice => {     return `<option value="${videoDevice.deviceId}">${videoDevice.label}</option>`;   });   cameraOptions.innerHTML = options.join(''); };  play.onclick = () => {   if (streamStarted) {     video.play();     play.classList.add('d-none');     pause.classList.remove('d-none');     return;   }   if ('mediaDevices' in navigator && navigator.mediaDevices.getUserMedia) {     const updatedConstraints = {       ...constraints,       deviceId: {         exact: cameraOptions.value       }     };     startStream(updatedConstraints);   } };  const startStream = async (constraints) => {   const stream = await navigator.mediaDevices.getUserMedia(constraints);   handleStream(stream); };  const handleStream = (stream) => {   video.srcObject = stream;   play.classList.add('d-none');   pause.classList.remove('d-none');   screenshot.classList.remove('d-none');   streamStarted = true; };  getCameraSelection(); 

Im obigen Ausschnitt sind einige Dinge zu erkennen. Schlüsseln wir diese auf:

  1. feather.replace(): dieser Methodenaufruf instanziiert feather, wobei es sich um einen Symbolsatz für die Webentwicklung handelt.
  2. Die Variable constraints enthält die anfängliche Konfiguration für den Stream. Diese wird erweitert, um das vom Benutzer gewählte Mediengerät einzubeziehen.
  3. getCameraSelection: diese Funktion ruft die Methode enumerateDevices auf. Dann filtern Sie durch das Array aus dem aufgelösten Promise und wählen Video-Eingabegeräte aus. Aus den gefilterten Ergebnissen erstellen Sie <option> für das Element <select>.
  4. Der Aufruf der Methode getUserMedia erfolgt innerhalb des Listeners onclick der Schaltfläche play. Hier überprüfen Sie vor dem Start des Streams, ob diese Methode vom Browser des Benutzers unterstützt wird.
  5. Als Nächstes rufen Sie die Funktion startStream auf, die ein Argument constraints benötigt. Sie ruft die Methode getUserMedia mit den angegebenen constraints auf. handleStream wird mit dem Stream aus dem aufgelösten Promise aufgerufen. Diese Methode setzt den zurückgegebenen Stream auf das srcObject des Videoelements.

Als Nächstes fügen Sie den Schaltflächen-Steuerelementen auf der Seite Klick-Listener für pause, stop und zur Aufnahme von screenshots hinzu. Außerdem fügen Sie dem Element <select> einen Listener hinzu, um die Stream-Beschränkungen mit dem ausgewählten Videogerät zu aktualisieren.

Aktualisieren Sie die Datei script.js mit dem nachstehenden Code:

script.js

... cameraOptions.onchange = () => {   const updatedConstraints = {     ...constraints,     deviceId: {       exact: cameraOptions.value     }   };   startStream(updatedConstraints); };  const pauseStream = () => {   video.pause();   play.classList.remove('d-none');   pause.classList.add('d-none'); };  const doScreenshot = () => {   canvas.width = video.videoWidth;   canvas.height = video.videoHeight;   canvas.getContext('2d').drawImage(video, 0, 0);   screenshotImage.src = canvas.toDataURL('image/webp');   screenshotImage.classList.remove('d-none'); };  pause.onclick = pauseStream; screenshot.onclick = doScreenshot; 

Wenn Sie jetzt die Datei index.html im Browser öffnen, wird das Anklicken der Schaltfläche Play den Stream starten.

Hier ist eine vollständige Demo:

Zusammenfassung

In diesem Tutorial wurde die API getUserMedia vorgestellt. Sie ist eine interessante Ergänzung zu HTML5, die den Prozess der Erfassung von Medien im Web erleichtert.

Die API verwendet einen Parameter (constraints), mit dem der Zugriff auf Audio- und Video-Eingabegeräte konfiguriert werden kann. Sie kann auch verwendet werden, um die für Ihre Anwendung erforderliche Videoauflösung anzugeben.

Sie können die Demo weiter erweitern, um dem Benutzer eine Option zu geben, die aufgenommenen Screenshots zu speichern, sowie Video- und Audiodaten mit Hilfe der API MediaStream Recording aufzuzeichnen und zu speichern.