一。每次遇到这种错误就头痛,不知道要害死多少脑细胞了,就在这里做个总结吧
可能会遇到这几种错误:
Undefined symbols for architecture armv7:(iPhone4|iPhone4S|iPad|iPad2|iPad3(The New iPad)|iPad mini|iPod Touch 3G|iPod Touch4)
Undefined symbols for architecture armv7s :(iPhone5|iPhone5C|iPad4(iPad with Retina Display))
Undefined symbols for architecture arm64(iphone5s以上)
Undefined symbols for architecture i386:(模拟器32位处理器测试(iphone5的模拟器))
Undefined symbols for architecture x86_64:(模拟器64位处理器测试(iphone5以上的模拟器))
错误原因分析
0、如果只有@interface,没有@implementation也会导致这个错误
1、注意看Build Phases里面的Compile Sources里面有没有被报错的类文件,如果没有的话也会报上面的错误
2、大部分情况下是忘记添加了某个系统framework或dylib吧,比如你在项目中使用了sqlite3,但是没有添加libsqlite3.dylib,就会出现这个问题。解决办法是增加对应的framework或dylib。
3、如果是在C++里调用C函数,检查是否有添加extern "C",这可以通过观察错误提示中的函数名形式来决定,如果是C函数而以C ++的方式调用就需要添加extern "C"。
4、如果是把其它工程的xcodeproj文件加入到当前项目中,检查Build Phases中的Target Dependencies有没有添加依赖,以及General中的Linked Frameworks and Libraries有没有添加相关的.a文件。
5、如果添加.a文件编译无错而添加xcodeproj文件编译出错可参考3
6、如果添加.a文件编译出错,首先检查其对应的头文件是否添加正确,或者在Build Setting中有没有添加对应的Header Search Path路径;其次检查.a文件的c++编译选项与当前项目的c++编译选项是否一致;最后检查.a文件与当前项目的CPU架构信息是否一致
7、如果是extern变量报这个错误,要检查extern变量有没有在其它地方声明,如果没有则加上;如果外部变量在静态库中,可根据5检查引用头文件或头文件搜索路径是否正确;如果头文件无问题,就需要检查静态库与与当前项目的CPU架构信息是否一致
8、如果是使用了静态库,真机Debug测试时正常,而在执行for iOS Device测试时报这个错误,很可能是因为静态库支持的架构不全。出现这种情况是Build Setting中的Build Active Architecture Only在Debug下设为Yes,从而使得真机Debug测试正常。
检查静态库的CPU架构支持命令:
lipo -info xxxxx.a
找出不支持arm64的静态库
find . -name *.a -exec lipo -info "{}" \;
在@end处提示expected }错误解决
问题很明显是}匹配出现问题了。如果代码少很好找,如果代码很多怎么缩小查找范围呢?一般出现这个问题时伴随另一个错误:在某个函数定义处提示"Use of undeclared identifire 'someMethod'”,那么就是在此函数定义之前的地方少了一个},导致编译器误把函数定义当成函数调用了。
1.在模拟器和真机器运行时提示:
1.1.模拟器时:Undefined symbols for architecture x86_64:
"_OBJC_CLASS_$_AVCaptureVideoDataOutput", referenced from:
objc-class-ref in CameraSource.o
"_OBJC_CLASS_$_AVCaptureDeviceInput", referenced from:
objc-class-ref in CameraSource.o
"_OBJC_CLASS_$_AVCaptureSession", referenced from:
objc-class-ref in CameraSource.o
1.2.真机时:Undefined symbols for architecture arm64:
"_OBJC_CLASS_$_AVCaptureVideoDataOutput", referenced from:
objc-class-ref in CameraSource.o
"_OBJC_CLASS_$_AVCaptureDeviceInput", referenced from:
objc-class-ref in CameraSource.o
"_OBJC_CLASS_$_AVCaptureSession", referenced from:
objc-class-ref in CameraSource.o
1.3.解决办法:
TARGETS->Build Phases->Link Binary With Libraries里添加AudioToolbox.framework和AVFoundation.framework
之前没添加AudioToolbox.framework和AVFoundation.framework就一直报上面的错误,添加完后就好了。
二。文章的最后为了方便小伙伴学习,本博主用 ffmpeg 在 iOS 设备写了一个实例代码,主要功能是利用摄像头实时录制 yuv 格式文件并编码 H.264 后,实时分析 H.264 中每个帧(frame)中的 NALU 的数据,希望对小伙伴们有所帮助,找到入门的方法。
在这里上传一下demo,
链接: https://pan.baidu.com/s/1c2y515I 密码: s2n8
通过真机运行,实现摄像头采集视频数据进行编码成h264数据保存到沙河里
详细功能介绍请看:https://github.com/Abson/CameraRtmpSDK
http://www.jianshu.com/p/9522c4a7818d
作者的demo下载后都是零散的文件,我是从新给他整合了下,在x-code里可以直接打开