前言
android对于java层的音频播放器提供了很多api,主要的有 AudioTrack、SoundPool、MediaPlayer(其实AudioPlayer和MediaPlayerAdapter也都是加了AudioFcus后对于MediaPlayer的二次封装,关于AudioFocus有时间再详细介绍)。
其中AudioTrack主要是播放pcm流,而soundPool主要播放一些短暂的声音,比如touch音。MediaPlayer主要播放媒体音频文件像.mp3文件等。其中SoundPool和MediaPlayer最终都会在native层调用到audioTrack将音频流写入到对应devices上。
关于MediaPlayer和AudioTrack的区别,这里就不细说了,百度一大堆。主要就是MediaPlayer会把.mp3等格式文件最终解析成pcm流输出给audiotrack。关于MediaPlayer的Java层的各状态转化和各方法调用说明,这里也不一一细说了。度娘全是这玩意。
这里主要说说MediaPlayer关于native层的东东(本人java出生,对于c/c++等了解的难免疏漏,如有理解错误,望各位大神不吝赐教,定虚心改正)。
MediaPlayer初始化
给大家提供一个免费看源码的网站(知道请略过)http://androidxref.com/
言归正传,就从java层的MediaPlayer说起吧。
- 构造方法
MediaPlayer位于frameworks/base/media/java/android/media/下继承PlayerBase。
其中PlayerBase的构造方法如下:
PlayerBase(@NonNull AudioAttributes attr, int implType) {
if (attr == null) {
throw new IllegalArgumentException("Illegal null AudioAttributes");
}
mAttributes = attr;
mImplType = implType;
mState = AudioPlaybackConfiguration.PLAYER_STATE_IDLE;
};
MediaPlayer的构造方法:
public MediaPlayer() {
super(new AudioAttributes.Builder().build(),
AudioPlaybackConfiguration.PLAYER_TYPE_JAM_MEDIAPLAYER);
Looper looper;
if ((looper = Looper.myLooper()) != null) {
mEventHandler = new EventHandler(this, looper);
} else if ((looper = Looper.getMainLooper()) != null) {
mEventHandler = new EventHandler(this, looper);
} else {
mEventHandler = null;
}
mTimeProvider = new TimeProvider(this);
mOpenSubtitleSources = new Vector<InputStream>();
/* Native setup requires a weak reference to our object.
* It's easier to create it here than in C++.
*/
native_setup(new WeakReference<MediaPlayer>(this));
baseRegisterPlayer();
}
可以看我们在使用时MediaPlayer时,通过new MediaPlayer的方式到实际都做了什么,着重关注下这几个点
1.new AudioAttributes.Builder()//这个主要后面的audioPolicy会用到。
2.native_setup
3.baseRegisterPlayer注册了一个player状态回调,这块逻辑,感兴趣的可以自己查下源码,暂忽略掉,有时间细看再补上这块吧,今天重点不是他。
重点说2.native_setup,这步直接调用了jni方法,关于jni我了解不是很多,我主要做从事App开发的,底层的东东只能略知一二,说的不对的,请多多指教。
private native final void native_setup(Object mediaplayer_this);
jni的加载主要通过 System.loadLibrary来实现的:
static {
System.loadLibrary("media_jni");
native_init();
}
在/frameworks/base/media/jni/android_media_MediaPlayer.cpp目录下,这样就走到了C++部分。
通过JNINativeMethod gMethods[]方法知道native_setup会调到android_media_MediaPlayer_native_setup方法。
{"native_setup", "(Ljava/lang/Object;)V", (void *)android_media_MediaPlayer_native_setup},
其中:
static void
android_media_MediaPlayer_native_setup(JNIEnv *env, jobject thiz, jobject weak_this)
{
ALOGV("native_setup");
sp<MediaPlayer> mp = new MediaPlayer();
if (mp == NULL) {
jniThrowException(env, "java/lang/RuntimeException", "Out of memory");
return;
}
// create new listener and give it to MediaPlayer
sp<JNIMediaPlayerListener> listener = new JNIMediaPlayerListener(env, thiz, weak_this);
mp->setListener(listener);
// Stow our new C++ MediaPlayer in an opaque field in the Java object.
setMediaPlayer(env, thiz, mp);
}
Ok分析下sp<MediaPlayer> mp = new MediaPlayer(); native层的mediaplayer也有了,创建了一个C++的mediaPlayer对象。
继续:setMediaPlayer(env, thiz, mp)将创建的Native层的MediaPlayer对象保存到Java层。也就是说将来我们通过getMediaplayer()的时候获取到的就是这个对象。
总结
到此MediaPlayer就创建完成了,通过java代码 new MediaPlayer()开始,一直到native层创建native层的MediaPlayer,并将native层的MediaPlayer返回到java层,供java层调用。
其实整个MediaPlayer在运行的时候,可以大致上分成Client和Server两个部分,它们分别在两个进程中运行,它们之间使用Binder机制实现IPC通讯,但Client端分一个在java层的MediaPlayer和native层的MediaPlayer。
最后感谢百度各位大师提供资料。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。