前言
最近写了个招新面试系统,要求能支持拍照上传简历图片。经过对其义务,api的了解。用** React+TypeScript **手写出了一个原生的拍照上传组件,写此博客对此加以记录,也会公开到github方便日后的使用。
核心代码函数
1.调用摄像头
主要使用的是浏览器自带的api
navigator.mediaDevices.getUserMedia
复制
该api可以调用浏览器的摄像头权限,返回的是promise函数
mediaStream.getTracks().forEach((track) => { track.stop(); });
复制
具体代码:
useEffect(() => { //组件挂载调用函数 navigator.mediaDevices .getUserMedia({ video: { width: 1080, height: 1920, frameRate: 30, facingMode: state.facing//调整摄像头的正反面 }, audio: false }) .then((stream) => { mediaStream = stream; if (videoRef.current) { videoRef.current.srcObject = stream; videoRef.current.play(); } }) .catch((err) => { console.log(`An error occurred: ${err}`); }); return () => { // 组件卸载时的逻辑 if (mediaStream) { mediaStream.getTracks().forEach((track) => { track.stop(); }); } }; }, [state.facing]);
复制
2.处理视频可播放事件
根据组件大小,计算视频流的宽高
const handleCanPlay = () => { if (!state.streaming) { const height = (videoRef.current?.videoHeight as number) / (((videoRef.current?.videoWidth as number) / state.width) as number); setState({ ...state, streaming: true, height: height as number }); } };
复制
3.处理拍照事件
使用canvas来绘画视频流得出的照片结果
并调用onUploadPhoto回调函数将照片数据URL传递给父组件。
const handleTakePhoto = () => { if (videoRef.current && canvasRef.current) { const { width, height } = state; canvasRef.current.width = width; canvasRef.current.height = height; const context = canvasRef.current.getContext('2d'); if (context) { context.drawImage(videoRef.current, 0, 0, width, height); const photo = canvasRef.current.toDataURL('image/png'); setState({ ...state, photo }); onUploadPhoto(photo); } } };
复制
代码的封装
1.依赖引入
import React, { useRef, useState, useEffect, ReactNode } from 'react';
复制
2.定义组件接口类型:
interface CameraProps { children?: ReactNode; onUploadPhoto: (photo: string) => void;//上传的函数 onUnloadPhoto: (unload: boolean) => void;//卸载的函数 }
复制
CameraProps接口定义了组件的属性类型。它包含了可选的children属性,以及onUploadPhoto和onUnloadPhoto两个回调函数属性。
3.定义组件状态
interface CameraState { streaming: boolean; width: number; height: number; photo: string | undefined; facing: 'user' | 'environment'; }
复制
CameraState接口定义了组件的状态类型。它包含了streaming表示是否正在录制、width和height表示视频的宽度和高度、photo表示拍摄的照片数据URL,以及facing表示相机的朝向。
4.定义相机组件:
const Camera: React.FC<CameraProps> = ({ onUploadPhoto, onUnloadPhoto }) => { // ... }
复制
Camera是一个函数组件,接受CameraProps作为属性。组件内部使用了useState和useRef来创建状态和引用。
5.定义组件的状态和引用:
const videoRef = useRef<HTMLVideoElement>(null); const canvasRef = useRef<HTMLCanvasElement>(null); let mediaStream: MediaStream | null = null; const [state, setState] = useState<CameraState>({ streaming: false, width: 320, height: 0, photo: undefined, facing: 'environment' });
复制
这段代码使用useRef创建了videoRef和canvasRef两个引用,分别指向视频元素和画布元素。mediaStream是一个变量用于存储媒体流对象。useState创建了state状态对象和对应的setState函数。
6.处理切换相机事件:
const handleToggleFacing = () => { setState({ ...state, facing: state.facing === 'user' ? 'environment' : 'user' }); };
复制
7.渲染组件:
return ( <div> <video ref={videoRef} onCanPlay={handleCanPlay} /> <canvas ref={canvasRef} style={{ display: 'none' }} /> {state.streaming && ( <div> <button onClick={handleTakePhoto}>Take Photo</button> <button onClick={handleToggleFacing}>Toggle Camera</button> </div> )} {state.photo && <img src={state.photo} alt="Captured" />} {children} </div> );
复制
完整代码:
github
https://github.com/wzz778/aZeCamera
使用效果
手动马赛克🤣
拍照界面
上传界面
点击上传,调用handleUploadPhoto函数,返回图片的64编码
后言
功能pc,移动端都能使用,但样式主要适配了移动端,样式也可根据自己需求自行调整。