记录下最近做语音播报的坑。
先说下实测成功的方式,咱没有VoIP功能,用这个推送的可以不用往下看了:
1、主app和Notification Service Extension
中存放音频语音文件,比如我这里是要播报支付金额,本地存放了对应的0-9,百、十、千、万、亿这样的语音拼接零件。
2、iOS10 - iOS12.1使用AVFoundation
框架合成.m4a文件,可用AVAudioPlayer播放。
3、iOS12.1 - iOS13(由于没有测试设备,大家自行测试,可能是iOS15以下)使用本地推送,在扩展里发送本地通知播放的是主app下对应的音频,这样多条循环推送就可以实现播报一段完整语音了。我在代码中存放了每个音频文件的时间(省的每次去读取bundle中音频文件获取时间),按时长延迟请求下一条本地推送。用这种方式的话如果设备开了震动收到一次推送就会震动一次,此处无解,已经是能播放的唯一方式了。记住千万不要提前调用self.contentHandler(self.bestAttemptContent);
!!,不然Notification Service Extesnion
通知扩展类会报错Notifications are not allowed for this application
4、之后高版本设备实现方式很简单,self.bestAttemptContent.sound = [UNNotificationSound soundNamed:@“拼接的语音文件名字”];
,语音文件要放在对应的目录。
拼接的音频必须在三个位置:
1.主应用中的Library/Sounds
文件夹中;
2.AppGroups
共享目录中的Library/Sounds
文件夹中;
3.main bundle
中;
第一种,Notification Service Extension
不在主应用,无法设置,第三种必须在打包时候就内置在项目中,所以只能放在AppGroups
中了。
合并mp3可以用AVFoundation
框架也可以用数据流的方式,用数据流合并的方式简单但是有个坑,我合并多个mp3文件发现只播放第一段音频,对比音频信息发现如果其中某个音频audio data file offset
有值时,合并的mp3时间轴就会出现问题,不同比特率的mp3音频合并无影响,这个问题找不到解决方法。新生成音频没有这个问题,只要裁切或者其他处理过的音频offset就有值。
参考文章:
iOS13推送语音播报
iOS小技能:合并mp3格式的文件