iOS开发基础129-音频录制上传

在iOS开发中,音频录制过程涉及几个关键步骤,包括配置录音设置、创建和启动录音机、处理录音会话以及将录制的音频文件上传到服务器。

1. 设置音频会话

我们需要使用AVFoundation框架来处理音频录制。在录制开始之前,需要配置音频会话。

#import <AVFoundation/AVFoundation.h>

- (void)setupAudioSession {
    AVAudioSession *session = [AVAudioSession sharedInstance];
    NSError *sessionError = nil;
    
    // 设置音频会话类别为录音和播放
    [session setCategory:AVAudioSessionCategoryPlayAndRecord error:&sessionError];
    if (sessionError) {
        NSLog(@"Error setting AVAudioSession category: %@", sessionError.localizedDescription);
    }
    
    // 激活音频会话
    [session setActive:YES error:&sessionError];
    if (sessionError) {
        NSLog(@"Error activating AVAudioSession: %@", sessionError.localizedDescription);
    }
}

2. 配置录音设置

创建并配置录音设置字典,可以定义音频格式、采样率、声道数等参数。

- (NSDictionary *)audioRecordingSettings {
    NSDictionary *settings = @{
        AVFormatIDKey : @(kAudioFormatLinearPCM),
        AVSampleRateKey : @44100.0,
        AVNumberOfChannelsKey : @2,
        AVLinearPCMBitDepthKey : @16,
        AVLinearPCMIsBigEndianKey : @NO,
        AVLinearPCMIsFloatKey : @NO
    };
    return settings;
}

3. 创建和启动录音机

创建一个AVAudioRecorder实例,并使用之前的音频设置字典来初始化录音机,开始录音。

@property (nonatomic, strong) AVAudioRecorder *audioRecorder;
@property (nonatomic, strong) NSURL *audioFileURL;

// 开始录制音频
- (void)startRecording {
    [self setupAudioSession];

    // 设置录音文件路径
    NSString *documentsPath = [NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES) firstObject];
    NSString *filePath = [documentsPath stringByAppendingPathComponent:@"recordedAudio.caf"];
    self.audioFileURL = [NSURL fileURLWithPath:filePath];

    NSError *error = nil;
    self.audioRecorder = [[AVAudioRecorder alloc] initWithURL:self.audioFileURL settings:[self audioRecordingSettings] error:&error];
    
    if (error) {
        NSLog(@"Error initializing AVAudioRecorder: %@", error.localizedDescription);
        return;
    }
    
    self.audioRecorder.delegate = self;
    [self.audioRecorder prepareToRecord];
    [self.audioRecorder record];
}

// 停止录制音频
- (void)stopRecording {
    if (self.audioRecorder.isRecording) {
        [self.audioRecorder stop];
    }
}

// AVAudioRecorderDelegate 方法,录音结束时的回调
- (void)audioRecorderDidFinishRecording:(AVAudioRecorder *)recorder successfully:(BOOL)flag {
    if (flag) {
        NSLog(@"Recording finished successfully.");
    } else {
        NSLog(@"Recording failed.");
    }
}

4. 提交上传至服务器

假设服务器端点为https://example.com/upload,我们可以使用NSURLSession来上传音频文件。

- (void)uploadAudioFile {
    NSString *urlString = @"https://example.com/upload";
    NSURL *url = [NSURL URLWithString:urlString];
    NSMutableURLRequest *request = [NSMutableURLRequest requestWithURL:url];
    [request setHTTPMethod:@"POST"];
    
    NSString *boundary = @"Boundary-\(NSUUID.UUID.UUIDString)";
    NSString *contentType = [NSString stringWithFormat:@"multipart/form-data; boundary=%@", boundary];
    [request setValue:contentType forHTTPHeaderField:@"Content-Type"];
    
    NSData *audioData = [NSData dataWithContentsOfURL:self.audioFileURL];
    if (!audioData) {
        NSLog(@"Failed to create audio data.");
        return;
    }
    
    NSMutableData *body = [NSMutableData data];
    [body appendData:[[NSString stringWithFormat:@"\r\n--%@\r\n", boundary] dataUsingEncoding:NSUTF8StringEncoding]];
    [body appendData:[[NSString stringWithFormat:@"Content-Disposition: form-data; name=\"file\"; filename=\"recordedAudio.caf\"\r\n"] dataUsingEncoding:NSUTF8StringEncoding]];
    [body appendData:[@"Content-Type: audio/caf\r\n\r\n" dataUsingEncoding:NSUTF8StringEncoding]];
    [body appendData:audioData];
    [body appendData:[[NSString stringWithFormat:@"\r\n--%@--\r\n", boundary] dataUsingEncoding:NSUTF8StringEncoding]];
    
    request.HTTPBody = body;
    
    NSURLSession *session = [NSURLSession sharedSession];
    NSURLSessionDataTask *uploadTask = [session dataTaskWithRequest:request completionHandler:^(NSData *data, NSURLResponse *response, NSError *error) {
        if (error) {
            NSLog(@"Error uploading file: %@", error.localizedDescription);
        } else {
            NSLog(@"File uploaded successfully with response: %@", response);
        }
    }];
    
    [uploadTask resume];
}

详细的作用说明

  • setupAudioSession: 配置并激活音频会话,以确保设备可以录音和播放。
  • audioRecordingSettings: 定义录音设置,包括音频格式、采样率、声道数等。
  • startRecording: 开始录音,准备并启动AVAudioRecorder实例。
  • stopRecording: 停止录音。
  • audioRecorderDidFinishRecording: 录音结束时的回调,处理录音完成事件。
  • uploadAudioFile: 使用NSURLSession将录制的音频文件上传到服务器。

小结

通过以上步骤,我们实现了一个完整的音频录制和上传过程。该示例涵盖了配置音频会话、初始化录音机、处理录音回调、以及将录制的音频文件上传到服务器的详细代码。进一步调试和优化可以根据需要进行扩展和调整。


使用websocket上传至服务器

使用SocketRocket库进行与服务器的通信并通过字节流上传文件,需要几个关键步骤。这些步骤包括连接到WebSocket服务器、准备要上传的音频字节数据、通过SocketRocket发送字节流以及处理服务器的响应。下面是一个详细的示例,包括如何实现这些步骤。

1. 引入SocketRocket库

首先,你需要确保项目中包含了SocketRocket库。可以通过CocoaPods来安装:

在你的Podfile中添加以下代码:

pod 'SocketRocket'

然后运行以下命令以安装库:

pod install

2. 配置并连接WebSocket

导入SocketRocket库,并创建和配置WebSocket连接。

#import <SocketRocket/SocketRocket.h>

@interface ViewController () <SRWebSocketDelegate>

@property (nonatomic, strong) SRWebSocket *webSocket;

@end

@implementation ViewController

- (void)viewDidLoad {
    [super viewDidLoad];
    [self setupWebSocket];
}

- (void)setupWebSocket {
    NSURL *url = [NSURL URLWithString:@"wss://example.com/socket"];
    self.webSocket = [[SRWebSocket alloc] initWithURL:url];
    self.webSocket.delegate = self;
    [self.webSocket open];
}

// SRWebSocketDelegate 方法
- (void)webSocket:(SRWebSocket *)webSocket didReceiveMessage:(id)message {
    NSLog(@"Received message: %@", message);
}

- (void)webSocketDidOpen:(SRWebSocket *)webSocket {
    NSLog(@"WebSocket connection opened.");
}

- (void)webSocket:(SRWebSocket *)webSocket didFailWithError:(NSError *)error {
    NSLog(@"WebSocket connection failed with error: %@", error);
}

- (void)webSocket:(SRWebSocket *)webSocket didCloseWithCode:(NSInteger)code reason:(NSString *)reason wasClean:(BOOL)wasClean {
    NSLog(@"WebSocket closed with reason: %@", reason);
}

@end

3. 使用字节流上传音频文件

假设你已经有音频文件的URL,可以将其转换为字节数据,然后通过WebSocket发送二进制数据。

- (void)uploadAudioFileThroughWebSocket {
    if (self.webSocket.readyState != SR_OPEN) {
        NSLog(@"WebSocket is not open.");
        return;
    }

    NSData *audioData = [NSData dataWithContentsOfURL:self.audioFileURL];
    if (!audioData) {
        NSLog(@"Failed to create audio data.");
        return;
    }
    
    // 设定好标识符,区分是普通消息还是音频数据
    const char identifier[] = {0x01}; // 0x01 作为音频数据的标识
    NSMutableData *dataToSend = [NSMutableData dataWithBytes:identifier length:sizeof(identifier)];
    [dataToSend appendData:audioData];
    
    [self.webSocket send:dataToSend];
}

4. 整合与测试

在WebSocket连接成功后,你可以通过调用uploadAudioFileThroughWebSocket方法进行音频文件的上传。

- (void)webSocketDidOpen:(SRWebSocket *)webSocket {
    NSLog(@"WebSocket connection opened.");
    [self uploadAudioFileThroughWebSocket];
}

详细的作用说明

  • -setupWebSocket: 创建并配置WebSocket实例,并启动连接。
  • SRWebSocketDelegate: 处理WebSocket连接的各种回调,例如收到消息、连接成功、连接失败、连接关闭等。
  • uploadAudioFileThroughWebSocket: 将音频文件转换为字节数据,并通过WebSocket发送到服务器。使用标识符来区分数据类型(可选,根据实际需求使用)。
  • webSocketDidOpen: WebSocket连接成功后的回调,在这里可以触发音频文件上传。

服务端处理

要处理客户端发送的二进制数据,服务端需要能够识别并正确解析特定的标识符数据,为了简单说明,以下为伪代码示例:

const WebSocket = require('ws');

const wss = new WebSocket.Server({ port: 8080 });

wss.on('connection', function connection(ws) {

  ws.on('message', function incoming(data) {
    let identifier = data.slice(0, 1);
    let audioData = data.slice(1);

    if (identifier[0] === 0x01) {
      console.log('Received audio data:', audioData);
      // 处理音频数据
    } else {
      console.log('Received message:', data);
    }
  });

  ws.send('Connection established.');

});

总结

通过SocketRocket进行字节流上传需要创建并连接WebSocket、准备好音频数据及其标识符、发送二进制数据,并处理服务器响应。服务端需要识别客户端发送的标识符并进行相应的处理。这个流程适用于需要实时数据传输或长连接的音频上传场景。

posted @   Mr.陳  阅读(108)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· 没有源码,如何修改代码逻辑?
· NetPad:一个.NET开源、跨平台的C#编辑器
· PowerShell开发游戏 · 打蜜蜂
· 凌晨三点救火实录:Java内存泄漏的七个神坑,你至少踩过三个!
点击右上角即可分享
微信分享提示