前言

android对于java层的音频播放器提供了很多api,主要的有 AudioTrack、SoundPool、MediaPlayer(其实AudioPlayer和MediaPlayerAdapter也都是加了AudioFcus后对于MediaPlayer的二次封装,关于AudioFocus有时间再详细介绍)。
其中AudioTrack主要是播放pcm流,而soundPool主要播放一些短暂的声音,比如touch音。MediaPlayer主要播放媒体音频文件像.mp3文件等。其中SoundPool和MediaPlayer最终都会在native层调用到audioTrack将音频流写入到对应devices上。
关于MediaPlayer和AudioTrack的区别,这里就不细说了,百度一大堆。主要就是MediaPlayer会把.mp3等格式文件最终解析成pcm流输出给audiotrack。关于MediaPlayer的Java层的各状态转化和各方法调用说明,这里也不一一细说了。度娘全是这玩意。
这里主要说说MediaPlayer关于native层的东东(本人java出生,对于c/c++等了解的难免疏漏,如有理解错误,望各位大神不吝赐教,定虚心改正)。


MediaPlayer初始化

给大家提供一个免费看源码的网站(知道请略过)http://androidxref.com/
言归正传,就从java层的MediaPlayer说起吧。

  1. 构造方法

MediaPlayer位于frameworks/base/media/java/android/media/下继承PlayerBase。
其中PlayerBase的构造方法如下:

    PlayerBase(@NonNull AudioAttributes attr, int implType) {
        if (attr == null) {
            throw new IllegalArgumentException("Illegal null AudioAttributes");
        }
        mAttributes = attr;
       mImplType = implType;
        mState = AudioPlaybackConfiguration.PLAYER_STATE_IDLE;
   };

MediaPlayer的构造方法:

  public MediaPlayer() {
        super(new AudioAttributes.Builder().build(),
                AudioPlaybackConfiguration.PLAYER_TYPE_JAM_MEDIAPLAYER);

        Looper looper;
        if ((looper = Looper.myLooper()) != null) {
            mEventHandler = new EventHandler(this, looper);
        } else if ((looper = Looper.getMainLooper()) != null) {
            mEventHandler = new EventHandler(this, looper);
        } else {
            mEventHandler = null;
        }

        mTimeProvider = new TimeProvider(this);
        mOpenSubtitleSources = new Vector<InputStream>();

        /* Native setup requires a weak reference to our object.
         * It's easier to create it here than in C++.
         */
        native_setup(new WeakReference<MediaPlayer>(this));

        baseRegisterPlayer();
    }

可以看我们在使用时MediaPlayer时,通过new MediaPlayer的方式到实际都做了什么,着重关注下这几个点
1.new AudioAttributes.Builder()//这个主要后面的audioPolicy会用到。
2.native_setup
3.baseRegisterPlayer注册了一个player状态回调,这块逻辑,感兴趣的可以自己查下源码,暂忽略掉,有时间细看再补上这块吧,今天重点不是他。
重点说2.native_setup,这步直接调用了jni方法,关于jni我了解不是很多,我主要做从事App开发的,底层的东东只能略知一二,说的不对的,请多多指教。

 private native final void native_setup(Object mediaplayer_this);

jni的加载主要通过 System.loadLibrary来实现的:

    static {
        System.loadLibrary("media_jni");
        native_init();
    }

在/frameworks/base/media/jni/android_media_MediaPlayer.cpp目录下,这样就走到了C++部分。
通过JNINativeMethod gMethods[]方法知道native_setup会调到android_media_MediaPlayer_native_setup方法。

    {"native_setup",        "(Ljava/lang/Object;)V",            (void *)android_media_MediaPlayer_native_setup},

其中:

static void
android_media_MediaPlayer_native_setup(JNIEnv *env, jobject thiz, jobject weak_this)
{
    ALOGV("native_setup");
    sp<MediaPlayer> mp = new MediaPlayer();
    if (mp == NULL) {
        jniThrowException(env, "java/lang/RuntimeException", "Out of memory");
        return;
    }

    // create new listener and give it to MediaPlayer
    sp<JNIMediaPlayerListener> listener = new JNIMediaPlayerListener(env, thiz, weak_this);
    mp->setListener(listener);

    // Stow our new C++ MediaPlayer in an opaque field in the Java object.
    setMediaPlayer(env, thiz, mp);
}

Ok分析下sp<MediaPlayer> mp = new MediaPlayer(); native层的mediaplayer也有了,创建了一个C++的mediaPlayer对象。
继续:setMediaPlayer(env, thiz, mp)将创建的Native层的MediaPlayer对象保存到Java层。也就是说将来我们通过getMediaplayer()的时候获取到的就是这个对象。


总结

到此MediaPlayer就创建完成了,通过java代码 new MediaPlayer()开始,一直到native层创建native层的MediaPlayer,并将native层的MediaPlayer返回到java层,供java层调用。
其实整个MediaPlayer在运行的时候,可以大致上分成Client和Server两个部分,它们分别在两个进程中运行,它们之间使用Binder机制实现IPC通讯,但Client端分一个在java层的MediaPlayer和native层的MediaPlayer。
最后感谢百度各位大师提供资料。


我是李睿
41 声望4 粉丝

移动端原生和混合开发