打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
光场定义(zz)

 光场相机原理:通过在普通相机镜头(主镜头)焦距处加微透镜阵列实现记录光线,再通过后期算法(傅里叶切片定理,光场成像算法)数字变焦。

原理图如下:


( 图引自Lytro创始人Ren Ng发表的光场相机文章[Light Field Photography with aHand-held Plenoptic Camera]. )

通过微镜头把聚焦的光线分开了,这样就记录了3条光线的方向和位置。而如果没有这个微镜头,那么在像平面上就只有一个像点。而现在有3个来记录了3条光线。

这样,光线通过主镜头后,打到微透镜阵列上,并再次成像。那么,放在微透镜阵列后的像素,尽管仍然只记录了光线的强度信息,但却因其相对于某个微透镜的位置而记录了光线的方向信息。即,如微透镜阵列是10*10,像素阵列是50*50,则每个微透镜分到5*5个像素,这25个像素分别记录了通过主透镜的25个不同位置并到达此微透镜的25根光线的强度信息。这样,单纯用微透镜阵列和光电传感器,就相当于记录了通过主透镜的所有光线。在后期处理时,只需要对光线重新追迹即可完成重聚焦,因为光线在自由空间中的传播是可以用两个平面、四个坐标(四维量,学术上称为光场)来唯一表示的,而成像过程只不过是对这个四维光场进行了一个二维积分,从而得到了二维图像。光场相机相当于直接记录了四维光场,不同焦深的图像只不过是在做不同情况下的二维积分罢了。

当然,光场相机劣势也明显,空间分辨率不足。这很显然,因为用同样的像素数量,传统相机记录二维图像,像素数被完全使用;光场相机记录四维图像再做积分生成二维图像,积分过程中就会有信息丢失(想象把平面点阵变成线点阵),自然二维图像像素数量减少了,后果就是空间分辨率不足。经典光场相机(Lytro)空间分辨率与微透镜阵列数量成正比。而且,要提高空间分辨率,角度分辨率就会下降,这之间有一个trade-off。


光场相机是因为在普通相机镜头(主镜头)焦距处加微透镜阵列实现记录光线的,然后根据记录的光线实现重聚焦的。那么是如何记录光线的呢,我觉得这个可能是很多人想要了结的问题,下面再次上图,如图(5)所示,微透镜s位于主镜头u的焦距处,传感器位于微透镜s的焦距处(这个其实也很重要的,RenNg在他的论文中也说啦,下面会简单的介绍)。

注意:由于微透镜的焦距远远小于主透镜的焦距,因此主透镜可以看做位于微透镜镜的无穷远处。从而可以认为主透镜u上的深绿竖条区域经过某个微透镜后正好聚焦在微透镜后的某一个像素上,又由于微透镜是主透镜的几百分之一,那么近似于采样的理解,可以认为这一个像素就是蓝色的线内部所有光线的一个采样。通过这种方式就记录了相机内部的一条光线;同理,其他像素也都对应一条光线(这样就是为什么Lytro一代记录了1100万条光线,而二代记录了4000万条光线)。

图(5)

夜已深了,既然说了,我就说完吧,上面图(5)说明了光场相机如何记录一条光线,但是可能还是不够清楚,索性再上两幅图,如图(6)所示,此刻的某个微透镜是不是很像传统相机的主透镜了,而主透镜是不是就相当于位于无穷远的场景了(这些都说废话),回归正题,大家是不是发现了,由于主透镜、微透镜阵列、传感器三者的位置关系,每个微透镜后面的像素可以看做是该像素镜像到主透镜区域的过来的光线的采样。

图(6)

下面再看图(7),有完没完啦,手机党一定要泪奔啦,好吧,在此致以诚挚的歉意。OK,继续,
其实此刻拿出图(7)是为了说明一个前面没有讲到的问题,前面只说一个了一个像素记录了一条光线,而没有谈到光线的方向信息。其实很简单,由于每个像素的位置是固定的,每个像素对应的微透镜的位置也是固定的,由于光线的直线传播,很容易得出光线的方向信息。好吧,再通俗一点:以图(6)和图(7)为例,假设主透镜后面有4个微透镜,每个微透镜后面有8个传感器(为了各种方便,此处都已平面空间为例,立体空间可以以此类推),图(6)中的红色传感器对应图(6)中主透镜的红色区域,如果说这个微透镜的坐标为s1(定值),而红色区域的坐标为7,那么红色传感器记录的这条光线就可以表示为:L(7,s),图(6)中的光线就为L(u, s1),而图(7)中的这些光线就为L(4,s)。所有的光线就对应L(u,s)。

图(7)
  • 重聚焦
在说重聚焦之前有个问题需要说明下:看过光场相机原始数据的(或者看我仿真产生的数据)都知道,直接观测数据是不能看的,是一个一个的圆形区域,因为每个微透镜都对圆形的主透镜成像,所以实际上光场相机上最终产生的图像是对原始数据进行求和之后得到的,怎么求和呢,就是每个微透镜后面对应的像素加起来,所以一个微透镜也就成了最终的一个像素,而微透镜的尺寸是不能太小的,所以就导致了最终的成像分辨率不高。

好吧,下面可以说重聚焦啦,我又要上图了,如图(8)所示:由于光线的直线传播,既然知道了光线在垂直方向上的两个坐标,又知道了两个坐标之间的水平距离,而传感器记录了光线的强度,根据这些条件,剩下的就是简单的几何问题啦,我就不说啦,一切都在图上。实际上我们的聚焦不就是调整这个水平距离,让光线到达聚焦平面嘛,现在既然知道了光线的方向和强度信息,当然可以随意的重聚焦啦。



from http://www.cnblogs.com/frombeijingwithlove/p/4205907.html

什么是计算摄像学

计算摄像学(ComputationalPhotography)是近年来越来越受到注意的一个新的领域,在学术界早已火热。本来计算摄像学的业界应用在群众中一直没什么知名度,直到Lytro公司推出了外观十分酷炫的光场相机,打着“先拍照再对焦”的噱头,这个学科一下子被很多研究领域以外的人开始注意到。那什么是计算摄像学呢?让我们看看清华大学和中科院的教授们怎么说[1]

“计算摄影学是一门将计算机视觉、数字信号处理、图形学等深度交叉的新兴学科,旨在结合计算、数字传感器、光学系统和智能光照等技术,从成像机理上来改进传统相机,并将硬件设计与软件计算能力有机结合,突破经典成像模型和数字相机的局限性,增强或者扩展传统数字相机的数据采集能力,全方位地捕捉真实世界的场景信息。”

这种定义虽然没什么错误,可其实相当于什么都没说。。个人觉得计算摄像学的定义得从一般的数码摄影对比着来理解。一般的数码摄影分为两个大步骤:1)通过相机采集图像;2)后期处理。而在每个大步骤里又有很多小的要素,比如1)里,需要考虑光照,相机角度,镜头组(光学系统),传感器等等,2)里的方方面面就更多了,降噪,调曲线,各种PS滤镜等等。如果这其中的每一个要素,我们都想办法进行拓展和改变。比如用特殊手段照明,可以从不同角度,或者按一定的时序打闪光灯,再或者用可见光之外的光。又比如改变光学系统,可以调整光圈大小,调整相机镜头位置,或是改变光圈形状等。而每一项采集图像的改变,往往都需要相应的计算机算法后期处理,甚至采集到的数据可以用除了普通显示器以外的方式呈现,那么前面这些一套的成像办法,就都可以归入计算摄像学的范畴。更笼统一下,就是拓展了传统数码摄影中的某个或多个因素的维度来成像的方法,就是计算摄像学。其实现在早就被用的烂熟的HDR就是计算摄像学中的一种办法,拓展的是传统成像中的光圈大小。那么,就当前计算摄像学的发展而言,这些拓展和改变都主要集中在哪些因素上呢?MIT的Raskar教授早就给出过结论:光学系统传感器照明后期处理[2]。作为漫谈计算摄像学的第一篇,今天要谈的光场,就是基于光学系统和后期处理上的拓展。

光场的定义

光场,顾名思义,就是关于光的某个物理量在空间内的分布。这个概念第一次被明确提出是在1939年A.Gershun的一篇论文中[3],后来被E. H. Adelson和J. R.Bergen在上世纪末的一篇论文中完善,并给出了全光函数(PlenopticFunction)的形式。简单来说,光场描述空间中任意一点向任意方向的光线的强度。而完整描述光场的全光函数是个7维函数,包含任意一点的位置(x,y, z),任意方向(极坐标中的Θ, Φ),波长(λ)和时间(t)。附上从Raskar教授的讲义里截的图:

在实际应用中,颜色和时间维度的信息通常是被RGB通道和不同帧表示,所以就光场而言,只关注光线的方向和位置就可以了,这样就从7维降到了5维。而再一般的,大部分成像系统中光线都是在一个有限的光路里传播,所以一种更简单的,用两个平面表示光场的方式被引入:

这种表示方式中,分别用两个平面上的两个点表示光线经过的两个点,这样一来光线的方向和位置都可以确定,并且维度降到了4个。注意到这样虽然简化了处理,可是局限性是,在实际应用中,两个平面都不是无限大的(即使是无限大也只能描述一半空间),光场可以描述的范围被两个平面的有效面积限制住了。

用数码相机采集光场

知道了光场的定义,那么是不是有什么专门的神奇设备能够在空间中采集这样的4维信息呢?没有的,光场虽然听上去比较高大上,可通常采集的办法还是传统的成像系统:相机。最经典的光场采集办法就是相机阵列,比如下图是Stanford Multi-CameraArray:

所以就是把相机排列在了一个平面上而已。为什么这样的相机阵列就采集了光场呢?我们先从最原始的针孔(Pinhole)相机模型谈起:

小孔成像模型是最直观也是最古老的成像模型,小孔相当于把光束的宽度限制得很小,所以如左图光束通过小孔之后再像面上成了一个倒像。这种成像虽然简单,然而一个重大不足是成像的分辨率被小孔大小限制着,小孔越小,则成像越清晰,然而光量也越小,像会很黯淡。为了成明亮的像我们希望光束的量大,也就是小孔大,但也不希望光束的不集中导致成像模糊,所以很自然的,凸透镜成像解决了这个问题。在凸透镜成像系统中,不过镜头怎么复杂,模式都是和中间的示意图一样,一个空间中的点发出的光束,打在透镜的一块面积上后,折射,然后汇聚到一点。所以单从光线采集的角度而言,和小孔成像系统的没有差别。那么这和光场的联系在哪呢,回顾前面说的用两个平面上的两点坐标表示广场的办法,如果我们这里把镜头中心所在平面看成uv平面,定义镜头中心为(0,0),而成像平面,也就是传感器所在平面看成xy平面,则在普通的成像系统中捕捉到的一幅图像可以看成是u=0,v=0出发的光线在传感器平面上的采样,也就是说我们采集了

 

L(0,0,x,y)|x,ysensorplane

其中每个L(0,0,x,y)的值就是传感器上的像素值。一个直观的例子是上图的第三个光路图,简化到二维情况的话,只看L(u,x),假设在传感器平面上有6个像素,那么采集到的6条光线就分别是L(0,-1),L(0,-0.6), L(0,-0.2), L(0,0.2), L(0,0.6),L(0,1)。那么很自然地,如果改变uv的位置,也就是镜头中心的位置,不仅能采集xy平面的光线,uv平面的也可以采集了,所以就能采集整个uv和xy间的光场了,所以相机阵列就相当于在uv平面上布满了很多采样点。

当然,上面说的是最直观最理想的情况,把相机近似成针孔模型还有个前提是景深足够,另外我的例子里xy平面是用传感器所在平面定义,另一种流行的定义方法是用相机的焦平面,也就是在镜头前方,也就是上图中的虚线箭头,这种方法相对来说就更为直观了,尤其是在假设焦距很小的情况下,虚线所在的平面就是相机平面距离为焦距的地方。事实上,在几何光学里,因为光线是严格直线传播,所以沿着光轴中心的不同位置上,如果都能采样的话,那么采到的像都是相似的,所以理论上讲uv和xy平面是可以沿着光路的中心轴任意位置定义的。另外,除了用x和y,也有很多学者喜欢用s和t描述像平面,不过这仅仅是字母使用习惯上的不同。

相机阵列只是采集光场的最基本模型,实际实现的系统都是基于相机阵列的原理,但是具体结构非常不一样。

Lytro

Lytro采用的是在传感器表面覆盖一层微镜头阵列[4]

微镜头阵列就是类似如下,近距离覆盖在传感器表面:

这个图是Lytro创始人博士论文里的原型机的阵列,(A)是阵列宏观的可视效果,(B)和(C)是微观结构,后来在Lytro中已经改进成了六边形的镜头阵列。一个Lytro在传感器成像的原始图片如下:

可以看到和相机阵列不同,Lytro采集到的图像是虚脱6边型构成的,不过其实背后的原理都是一样的,这一大幅看着像昆虫眼睛采到的图像是能够通过算法转化成前面提到的相机阵列等效图像的,而每一幅等效的图像又叫Sub-Aperture图像。和Lytro类似的还有Raytrix的光场相机,不过Raytrix的采样精度和采样数都大幅高于玩具般的Lytro,属于工业级光场相机。

Adobe PlenopticLenses

名字已经写得很清楚了,lenses,和Lytro还有Raytrix不同,Adobe的光场相机把光场采样镜头置于主镜头组前[5]

PiCam

这是个微缩版的相机阵列,用的就是手机上的那种镜头,4x4阵列,特点是用提出的算法优化了分辨率和深度图估计[6]

微缩相机阵列里还有一个例子是去年发布的华为荣耀6 Plus。

光场和3D

知道了光场的直观意义,那么很自然地就会想到和普通的照片比起来,获取的信息不再是一幅简单的2D像素阵列,而是三维空间中的光线,也就是说光场中是包含三维信息的。一个简单的例子来说明:

左边的例子是不同uv平面上的相机成像的差别,假设成像后焦平面都取相同的区域的话,可以看到因为uv的不同,所以不同距离上的物体在最终的图像上的位置也不一样,其实这个就是典型的视觉中的Stereo问题。另外既然提到了Stereo,也需要特别提到的是,在相机阵列采集到不同拍照位置的图像之后,有个非常重要的步骤叫做Calibration,也就是在选定的x平面上,要保证两个相机视野是重合的,如左图所示。那么深度的信息是如何获得的呢,来看下图:

假象我们可以保持右边的相机的光场不变,然后向左平移,使得蓝色的光线在成像面上重合,那么最终蓝色方块在两个相机成像的照片里位置就会完全相同,这其实就等效于把原始位置成的像向左移动了一段距离,然后和左边相机成的图像叠加,那么就会发现蓝色方块重合了。类似的,如右图所示,如果把右边相机成的图像向左移动一大段距离,那么更远的绿色三角图像就重合了,要想是不同位置的物体重合就要对应不同的移动距离,而这个距离实际上是和物体到镜头的距离相关的,通过移动距离和相机采样点之间距离的比值就可以轻易求出,进而就相当于我们得出了蓝色方块和绿色三角的深度信息。顺带提一句,让蓝色方块和绿色三角重合的过程其实就已经是所谓的先拍照后聚焦的聚焦过程了,这篇文章不会展开来讲。那么再回到第一幅图中的插值问题,如何通过两个相机得到的图像求出一个虚拟的在两个相机之间的图像呢?

以绿色三角为例子,因为我们用的是镜头前像平面的二维例子,所以这里用L(x,u)表示入射到虚拟位置的光线,则有

 

L(x,u)=λ0L(x0,u0)+λ1L(x1,u1)

其实就是以虚拟位置到已有采样位置的距离为权重的线性插值。那具体到采集到的图像这个过程是怎么实现的呢,在相机阵列中需要注意的一点是不仅仅是相机采样是离散点,图像因为是像素构成的所以也是离散采样。示意图如下:

所以实际上用来插值L(u,x)的光线采样有4条,公式如下:

 

L(x,u)=λ0L(x00,u0)+λ1L(x01,u0)+λ2L(x10,u1)+λ3L(x11,u1)

其中

 

λ0=(1|xx00||x01x00|)(1|uu0||u0u1|)

 

λ1=(1|xx01||x01x00|)(1|uu0||u0u1|)

 

λ2=(1|xx10||x11x10|)(1|uu1||u0u1|)

 

λ3=(1|xx11||x11x10|)(1|uu1||u0u1|)

这是二维光场的情况,如果实际应用中需要对4维光场插值,则这个公式一共涉及到16条光线,下面是个示意图:

公式看上去很复杂,不过直观地理解也不困难,每根光线前的系数里,和u有关的部分就是指将图像按照相机采样位置差异进行移动的幅度,也就是把采到的图像进行平移(如下图),而和x有关的部分就是在传感器上对光线通过的位置进行插值。利用深度信息的辅助,在整幅图像上进行这个过程就能得到一个没有采样点上的虚拟相机采到的插值图像。

来做个简单的实例试一试,用手机拍9幅照片,也就是3x3的采样:

接下来是前面提到的Calibration,以中心的字母U作为聚焦平面,并且重新构图裁剪画面:

做Calibration的过程中可以得到照片拍摄时的位置信息:

可以看到由于手持手机的误差,我的采样位置是很不规则的,不过能大概看出是在“田”字格上采样,除了位置信息还能提取出深度信息,提取深度的算法有很多,为了方便我这里使用的是最原始的disparity比较:

接下来进行采样插值,我采取的策略是在每四个采样点之间进行Quadrilinear采样:

采样的效果怎么样呢,沿着我的采样点我画了条轨迹试试,起点和终点分别是左下角和右下角的采样点,把对应的插值图像提取出来,轨迹和对应的动图如下:

另外一个有意思的例子,一个日本人用Optical Flow做云图趋势预测[7],论文里附带的一个小例子:

分别是从左和右看手办的渲染图,用OpticalFlow能得到非常好换视角动态插值,但是场景的3D效果很不正常,比如辫子末梢,双脚,还有黄色的小带子,效果动图如下:

如果用光场也能做这件事情,区别是成像效果,尤其是物体边缘处的质量会下降,但是优点是能够更准确的还原三维场景,结果如下:

参考文献:

[1] http://wenku.baidu.com/link?url=ViSzmcYvSZNN-NYa-mxlqy8hnKJWxqj1hukSUYLIuVm79LUjYG54dfEOZTHVDGeMwsd4hFMTUepFMnsVLINlZ1o0-s5oGucwWg4o4RlejYG

[2] http://web.media.mit.edu/~raskar/photo/

[3] A. Gershun, “The light field,” J. Math.Phys., Vol. 18, pp. 51–151, 1939

[4] R. Ng, "Digital LightField Photography," PhD thesis, Stanford University, Stanford, CA(2006)

[5] T. Georgiev, A. Lumsdaine,"Focused plenoptic camera and rendering," Journal of ElectronicImaging 19(2), 2010

[6] K. Venkataraman, et. al"PiCam: An Ultra-Thin High Performance Monolithic Camera Array,"ACM Transactions on Graphics(SIGGRAPH) 2013

[7] http://imoz.jp/research.html






漫谈计算摄像学(二):利用光场实现“先拍照后对焦”

在上一篇直观理解光场中,谈到了光场的基本概念、3D性质、实际应用中的采集办法和插值求任意光线的办法。这一篇继续上一篇的基础上给出利用光场实现“先拍照后聚焦”的原理和基本步骤。

对焦与光路

首先,什么是对焦呢,我们先简单回顾一下中学物理。

先看左图,物体端的对焦面就是最上方的平面,从这个平面上的每一点发出的光线最后都汇聚在另一端的像平面上,一个典型的光路如加粗的四色直线所示。如果希望物体端的焦面移动到和原焦面到透镜之间的位置,可以看到光线仍然是那些光线,但是聚焦到像面的光线组合就不再是之前的光线了,比如右图里,加粗的光线除了红线以外,黑绿蓝三色的光线都不再是原来的那几根。对应对焦的基本光路,再回来看光场,根据上一篇文章中介绍过的光场的基本原理,很自然的,我们会想到,只要把在一个物平面上发出的光线所对应的像素叠加在一起,不就实现了重聚焦了吗?事实上这就是最简单的基于光场的重聚焦算法,叫Shift-and-Add[1]

先拍照后对焦的算法

还是借助上一篇文章中的配图来讲解Shift-and-Add算法:

如左图所示,在原始的采集位置上,蓝色光线在两幅采集到的图像里分别对应于不同的位置,所以如果要对焦于蓝色的方块,则需要将他们的相对位移消除,这一步就是Shift,然后在把两个像素的平均值求出作为对焦后的新图像的像素值,则得到了对焦于蓝色方块的图像。同样道理,对于更远的绿色三角,则进行更大距离的位移来消除对应像素之间的相对距离,然后叠加得到新的对焦于绿色三角的图像。需要注意的是,如上面的小图所示,移动叠加之后,边缘部分总是有些像素是不重合的,所以或多或少都会形成瑕疵。

具体到上篇文章里手机拍的照片例子,就是按照每张照片采样位置相对于中心位置进行等比例的移动,就可以得到在不同物平面上重聚焦的图像,比如我们选取9个采样点的中心点作为中心位置的话,将其他8个采样点放置到不同位置上,就对应得到不同的重聚焦图片:

绿圈位置对应图像:

蓝圈位置对应图像:

就这么简单。那么,Lytro中的算法是不是Shift-and-Add呢?答案是否定的,Lytro的算法是把平移-叠加这种空域的算法放到了频域执行。基于的原理叫做中心切片定理,这里只简单提两句,中心切片定理是二维的,不过其基本原理可以拓展到任意维度,Lytro中用的是其在4维时的应用。简单来说就是把4维的光场进行傅里叶变换之后,在4D的傅里叶空间内,不同位置的重聚焦图片分别对应一个穿过中心的不同角度的二维傅里叶空间的插值切片的逆傅里叶变换。所以本质上而言,这种办法和Shift-and-Add没有区别,只不过是把线性操作换到了频域空间。shift-and-Add每次产生新的重聚焦图片时都需要用到所有采集的光场信息,算法复杂度是O(n4)。而如果是从变换后4D数据里产生新的重聚焦图片,则分为两步:1)求插值得到2D的傅里叶空间切片,复杂度是O(n2);2)二维傅里叶逆变换,复杂度是O(n2logn),当然为了得到4D的傅里叶变换还有一步初始化计算,复杂度是O(n4logn)。所以在已经有了采集到的4D数据需要不断生成新的重聚焦图片的场景下,在频域的重聚焦算法时间上更经济一些。更多关于频域重聚焦算法的详细,有兴趣的朋友可以参考[1]

另外特别要提的一点是,在这种Shift-and-Add框架下的重聚焦算法,和实际相机成像的图片是有区别的。原因就是第一节中对焦与光路部分。可以看到在凸透镜光路中,不同位置上对焦的光线是互相不平行的,而Shift-and-Add算法下,所有光线都被认为是“平行”移动的,所以在重聚焦后的照片中,虚化的部分图像是不一样的,然而这种差距对于人眼来说,其实也没那么大差别。

插值法去重影

可能有的朋友看到这里已经发现了,虽然重聚焦是完成了,可是重对焦后图像的质量并不好,比如上一节中对焦在Dell标志上的一张:

花朵的部分有很明显的重影,和用相机镜头照出来的显然不一样。通过前面部分的原理讲解,这个原因也是很显然的:因为只有9个采样点,在移动-叠加的过程中,不同图像对应像素的移动超过了一个像素,则叠加后的图像就会出现这种类似于重影的瑕疵。其实这个问题解决起来也很简单,记得在上篇文章中,已经讲过如何通过插值得到虚拟位置采样的图像,所以很自然地,我们只要通过插值,让采样点更密,密到每一个采样点和相邻采样点的图像上的对应像素的位移都小于或接近一个像素,那么视觉上这种重影的现象就可以消除了。得到的结果如下:

最后来个连续变焦的动图:

光圈的模拟

许多人在用传统相机拍摄“虚化”照片时喜欢通过调整光圈来控制虚化的程度。这在基于光场的重聚焦中也是可以模拟的,道理很简单,就是将采样的范围调整就可以了。还是用上一篇文章中的例子,比如用所有的采样点(包括插值得到的):

得到的图像:

而如果只采用中间一小部分的采样点的话,相当于小光圈:

则得到虚化程度比较低的图片:

[1]R. Ng, "Digital Light Field Photography," PhD thesis, StanfordUniversity, Stanford, CA (2006)

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
搞懂就能拿5亿美金!一文看清光场技术的真相,为啥阿里谷歌都爱它?
石墨烯光探测器用于新型3D相机
光场成像
3分钟了解光场成像
太赫兹光场成像
迄今为止,虚拟现实还面临那些技术瓶颈需要突破?
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服