• ORB-SLAM2 ---- Tracking::CreateInitialMapMonocular函数


    目录

    1.函数作用

    2.函数解析

    2.1 调用函数解析

    2.2  Tracking::CreateInitialMapMonocular函数总体思路

    2.2.1 代码

    2.2.2 总体思路解析 

    2.3 MapPoint::ComputeDistinctiveDescriptors函数解析

    2.3.1 函数作用

    2.3.2 代码 

    2.3.3 函数解析 

    2.4 MapPoint::UpdateNormalAndDepth函数解析 

    2.4.1 函数作用

    2.4.2 代码 

    2.4.3 函数解析  


    1.函数作用

            单目相机成功初始化后用三角化得到的点生成MapPoints

    2.函数解析

    2.1 调用函数解析

            单目地图初始化Tracking::MonocularInitialization函数中调用本函数,这是初始化单目SLAM的最后一步,我们在之前已经完成了单目初始化器的创建、匹配了两帧的特征点、恢复了两帧的运动位姿、用三角化生成了地图点,接下来我们要调用此函数利用生成的3D点实现生成地图点。

    2.2  Tracking::CreateInitialMapMonocular函数总体思路

    2.2.1 代码

    1. /**
    2. * @brief 单目相机成功初始化后用三角化得到的点生成MapPoints
    3. *
    4. */
    5. void Tracking::CreateInitialMapMonocular()
    6. {
    7. // Create KeyFrames 认为单目初始化时候的参考帧和当前帧都是关键帧
    8. KeyFrame* pKFini = new KeyFrame(mInitialFrame,mpMap,mpKeyFrameDB); // 第一帧
    9. KeyFrame* pKFcur = new KeyFrame(mCurrentFrame,mpMap,mpKeyFrameDB); // 第二帧
    10. // Step 1 将初始关键帧,当前关键帧的描述子转为BoW
    11. pKFini->ComputeBoW();
    12. pKFcur->ComputeBoW();
    13. // Insert KFs in the map
    14. // Step 2 将关键帧插入到地图
    15. mpMap->AddKeyFrame(pKFini);
    16. mpMap->AddKeyFrame(pKFcur);
    17. // Create MapPoints and asscoiate to keyframes
    18. // Step 3 用初始化得到的3D点来生成地图点MapPoints
    19. // mvIniMatches[i] 表示初始化两帧特征点匹配关系。
    20. // 具体解释:i表示帧1中关键点的索引值,vMatches12[i]的值为帧2的关键点索引值,没有匹配关系的话,vMatches12[i]值为 -1
    21. for(size_t i=0; isize();i++)
    22. {
    23. // 没有匹配,跳过
    24. if(mvIniMatches[i]<0)
    25. continue;
    26. //Create MapPoint.
    27. // 用三角化点初始化为空间点的世界坐标
    28. cv::Mat worldPos(mvIniP3D[i]);
    29. // Step 3.1 用3D点构造MapPoint
    30. MapPoint* pMP = new MapPoint(
    31. worldPos,
    32. pKFcur,
    33. mpMap);
    34. // Step 3.2 为该MapPoint添加属性:
    35. // a.观测到该MapPoint的关键帧
    36. // b.该MapPoint的描述子
    37. // c.该MapPoint的平均观测方向和深度范围
    38. // 表示该KeyFrame的2D特征点和对应的3D地图点
    39. pKFini->AddMapPoint(pMP,i);
    40. pKFcur->AddMapPoint(pMP,mvIniMatches[i]);
    41. // a.表示该MapPoint可以被哪个KeyFrame的哪个特征点观测到
    42. pMP->AddObservation(pKFini,i);
    43. pMP->AddObservation(pKFcur,mvIniMatches[i]);
    44. // b.从众多观测到该MapPoint的特征点中挑选最有代表性的描述子
    45. pMP->ComputeDistinctiveDescriptors();
    46. // c.更新该MapPoint平均观测方向以及观测距离的范围
    47. pMP->UpdateNormalAndDepth();
    48. //Fill Current Frame structure
    49. //mvIniMatches下标i表示在初始化参考帧中的特征点的序号
    50. //mvIniMatches[i]是初始化当前帧中的特征点的序号
    51. mCurrentFrame.mvpMapPoints[mvIniMatches[i]] = pMP;
    52. mCurrentFrame.mvbOutlier[mvIniMatches[i]] = false;
    53. //Add to Map
    54. mpMap->AddMapPoint(pMP);
    55. }
    56. // Update Connections
    57. // Step 3.3 更新关键帧间的连接关系
    58. // 在3D点和关键帧之间建立边,每个边有一个权重,边的权重是该关键帧与当前帧公共3D点的个数
    59. pKFini->UpdateConnections();
    60. pKFcur->UpdateConnections();
    61. // Bundle Adjustment
    62. cout << "New Map created with " << mpMap->MapPointsInMap() << " points" << endl;
    63. // Step 4 全局BA优化,同时优化所有位姿和三维点
    64. Optimizer::GlobalBundleAdjustemnt(mpMap,20);
    65. // Set median depth to 1
    66. // Step 5 取场景的中值深度,用于尺度归一化
    67. // 为什么是 pKFini 而不是 pKCur ? 答:都可以的,内部做了位姿变换了
    68. float medianDepth = pKFini->ComputeSceneMedianDepth(2);
    69. float invMedianDepth = 1.0f/medianDepth;
    70. //两个条件,一个是平均深度要大于0,另外一个是在当前帧中被观测到的地图点的数目应该大于100
    71. if(medianDepth<0 || pKFcur->TrackedMapPoints(1)<100)
    72. {
    73. cout << "Wrong initialization, reseting..." << endl;
    74. Reset();
    75. return;
    76. }
    77. // Step 6 将两帧之间的变换归一化到平均深度1的尺度下
    78. // Scale initial baseline
    79. cv::Mat Tc2w = pKFcur->GetPose();
    80. // x/z y/z 将z归一化到1
    81. Tc2w.col(3).rowRange(0,3) = Tc2w.col(3).rowRange(0,3)*invMedianDepth;
    82. pKFcur->SetPose(Tc2w);
    83. // Scale points
    84. // Step 7 把3D点的尺度也归一化到1
    85. // 为什么是pKFini? 是不是就算是使用 pKFcur 得到的结果也是相同的? 答:是的,因为是同样的三维点
    86. vector vpAllMapPoints = pKFini->GetMapPointMatches();
    87. for(size_t iMP=0; iMPsize(); iMP++)
    88. {
    89. if(vpAllMapPoints[iMP])
    90. {
    91. MapPoint* pMP = vpAllMapPoints[iMP];
    92. pMP->SetWorldPos(pMP->GetWorldPos()*invMedianDepth);
    93. }
    94. }
    95. // Step 8 将关键帧插入局部地图,更新归一化后的位姿、局部地图点
    96. mpLocalMapper->InsertKeyFrame(pKFini);
    97. mpLocalMapper->InsertKeyFrame(pKFcur);
    98. mCurrentFrame.SetPose(pKFcur->GetPose());
    99. mnLastKeyFrameId=mCurrentFrame.mnId;
    100. mpLastKeyFrame = pKFcur;
    101. mvpLocalKeyFrames.push_back(pKFcur);
    102. mvpLocalKeyFrames.push_back(pKFini);
    103. // 单目初始化之后,得到的初始地图中的所有点都是局部地图点
    104. mvpLocalMapPoints=mpMap->GetAllMapPoints();
    105. mpReferenceKF = pKFcur;
    106. //也只能这样子设置了,毕竟是最近的关键帧
    107. mCurrentFrame.mpReferenceKF = pKFcur;
    108. mLastFrame = Frame(mCurrentFrame);
    109. mpMap->SetReferenceMapPoints(mvpLocalMapPoints);
    110. mpMapDrawer->SetCurrentCameraPose(pKFcur->GetPose());
    111. mpMap->mvpKeyFrameOrigins.push_back(pKFini);
    112. mState=OK;// 初始化成功,至此,初始化过程完成
    113. }

    2.2.2 总体思路解析 

            我们认为单目初始化时候的参考帧和当前帧都是关键帧

            ①我们对单目初始化的第一帧和第二帧构造成关键帧pKFini 、pKFcur,并计算他们的Bow向量(BowVector、FeatureVector)

            ②将关键帧pKFini 、pKFcur插入到地图mnmap中。

            ③用初始化得到的3D点来生成地图点MapPoints,包括以下步骤:对跟踪初始化时前两帧之间的匹配mvIniMatches进行遍历。

            若没有匹配,则跳过。有匹配的情况对应于mvIniMatches[i] = j

            对有匹配点构造的世界坐标点构造地图点

    MapPoint* pMP = new MapPoint(worldPos,pKFcur, mpMap);

            对第一帧第二帧分别添加构造的地图点pMp(让能看到该地图点)

    1. pKFini->AddMapPoint(pMP,i);
    2. pKFcur->AddMapPoint(pMP,mvIniMatches[i]);

            该MapPoint可以被哪个KeyFrame的哪个特征点观测到(让地图点能看见帧)

    1. pMP->AddObservation(pKFini,i);
    2. pMP->AddObservation(pKFcur,mvIniMatches[i]);

            从众多观测到该MapPoint的特征点中挑选最有代表性的描述子

    pMP->ComputeDistinctiveDescriptors();
    

            更新该MapPoint平均观测方向以及观测距离的范围

    pMP->UpdateNormalAndDepth();

            更新每个特征点对应的MapPoint,如果特征点没有对应的地图点,那么将存储一个空指针。

    mCurrentFrame.mvpMapPoints[mvIniMatches[i]] = pMP;
    

            将该特征点属于外点的特征点标记置为false

     mCurrentFrame.mvbOutlier[mvIniMatches[i]] = false;

            将地图能看见地图点

    mpMap->AddMapPoint(pMP);

            ④更新关键帧间的连接关系,在3D点和关键帧之间建立边,每个边有一个权重,边的权重是该关键帧与当前帧公共3D点的个数。

            ⑤全局BA优化,同时优化所有位姿和三维点

            ⑥取场景的中值深度,用于尺度归一化 

            ⑦把3D点的尺度也归一化到1

            ⑧将关键帧插入局部地图,更新归一化后的位姿、局部地图点

            ⑨置位单目初始化成功状态state位OK。

    2.3 MapPoint::ComputeDistinctiveDescriptors函数解析

    2.3.1 函数作用

            计算地图点最具代表性的描述子。由于一个地图点会被许多相机观测到,因此在插入关键帧后,需要判断是否更新代表当前点的描述子 
             方法是先获得当前点的所有描述子,然后计算描述子之间的两两距离,最好的描述子与其他描述子应该具有最小的距离中值。

    2.3.2 代码 

    1. void MapPoint::ComputeDistinctiveDescriptors()
    2. {
    3. // Retrieve all observed descriptors
    4. vector vDescriptors;
    5. mapsize_t> observations;
    6. // Step 1 获取该地图点所有有效的观测关键帧信息
    7. {
    8. unique_lock lock1(mMutexFeatures);
    9. if(mbBad)
    10. return;
    11. observations=mObservations;
    12. }
    13. if(observations.empty())
    14. return;
    15. vDescriptors.reserve(observations.size());
    16. // Step 2 遍历观测到该地图点的所有关键帧,对应的orb描述子,放到向量vDescriptors中
    17. for(mapsize_t>::iterator mit=observations.begin(), mend=observations.end(); mit!=mend; mit++)
    18. {
    19. // mit->first取观测到该地图点的关键帧
    20. // mit->second取该地图点在关键帧中的索引
    21. KeyFrame* pKF = mit->first;
    22. if(!pKF->isBad())
    23. // 取对应的描述子向量
    24. vDescriptors.push_back(pKF->mDescriptors.row(mit->second));
    25. }
    26. if(vDescriptors.empty())
    27. return;
    28. // Compute distances between them
    29. // Step 3 计算这些描述子两两之间的距离
    30. // N表示为一共多少个描述子
    31. const size_t N = vDescriptors.size();
    32. // 将Distances表述成一个对称的矩阵
    33. // float Distances[N][N];
    34. std::vectorfloat> > Distances;
    35. Distances.resize(N, vector<float>(N, 0));
    36. for (size_t i = 0; i
    37. {
    38. // 和自己的距离当然是0
    39. Distances[i][i]=0;
    40. // 计算并记录不同描述子距离
    41. for(size_t j=i+1;j
    42. {
    43. int distij = ORBmatcher::DescriptorDistance(vDescriptors[i],vDescriptors[j]);
    44. Distances[i][j]=distij;
    45. Distances[j][i]=distij;
    46. }
    47. }
    48. // Take the descriptor with least median distance to the rest
    49. // Step 4 选择最有代表性的描述子,它与其他描述子应该具有最小的距离中值
    50. int BestMedian = INT_MAX; // 记录最小的中值
    51. int BestIdx = 0; // 最小中值对应的索引
    52. for(size_t i=0;i
    53. {
    54. // 第i个描述子到其它所有描述子之间的距离
    55. // vector vDists(Distances[i],Distances[i]+N);
    56. vector<int> vDists(Distances[i].begin(), Distances[i].end());
    57. sort(vDists.begin(), vDists.end());
    58. // 获得中值
    59. int median = vDists[0.5*(N-1)];
    60. // 寻找最小的中值
    61. if(median
    62. {
    63. BestMedian = median;
    64. BestIdx = i;
    65. }
    66. }
    67. {
    68. unique_lock lock(mMutexFeatures);
    69. mDescriptor = vDescriptors[BestIdx].clone();
    70. }
    71. }

    2.3.3 函数解析 

            mObservations是一个map型向量,第一维取观测到该地图点的关键帧,第二维是该地图点在关键帧中的索引。

            我们遍历观测到该地图点的所有关键帧,对应的orb描述子,放到向量vDescriptors中。

            接着我们构造一个N\times N的矩阵Distances,维度是一共有多少个描述子即有多少关键帧能观测到当前地图点。Distances[i][j]与Distances[j][i]表示第i个描述子与第j个描述子的距离。

            我们对这个矩阵的每行进行遍历,即第i个描述子与其他描述子的汉明距离,我们将它排序取中值,遍历完N次后我们得到了一个描述子,这个描述子距离其他描述子有最小的距离中值,我们记录这个中值值为BestMedian,这个中值对应的索引为BestIdx。

            这个索引对应的描述子就是我们选择的这个地图点最具有代表性的地图点。

    2.4 MapPoint::UpdateNormalAndDepth函数解析 

    2.4.1 函数作用

            更新地图点的平均观测方向、观测距离范围。

    2.4.2 代码 

    1. void MapPoint::UpdateNormalAndDepth()
    2. {
    3. // Step 1 获得观测到该地图点的所有关键帧、坐标等信息
    4. mapsize_t> observations;
    5. KeyFrame* pRefKF;
    6. cv::Mat Pos;
    7. {
    8. unique_lock lock1(mMutexFeatures);
    9. unique_lock lock2(mMutexPos);
    10. if(mbBad)
    11. return;
    12. observations=mObservations; // 获得观测到该地图点的所有关键帧
    13. pRefKF=mpRefKF; // 观测到该点的参考关键帧(第一次创建时的关键帧)
    14. Pos = mWorldPos.clone(); // 地图点在世界坐标系中的位置
    15. }
    16. if(observations.empty())
    17. return;
    18. // Step 2 计算该地图点的平均观测方向
    19. // 能观测到该地图点的所有关键帧,对该点的观测方向归一化为单位向量,然后进行求和得到该地图点的朝向
    20. // 初始值为0向量,累加为归一化向量,最后除以总数n
    21. cv::Mat normal = cv::Mat::zeros(3,1,CV_32F);
    22. int n=0;
    23. for(mapsize_t>::iterator mit=observations.begin(), mend=observations.end(); mit!=mend; mit++)
    24. {
    25. KeyFrame* pKF = mit->first;
    26. cv::Mat Owi = pKF->GetCameraCenter();
    27. // 获得地图点和观测到它关键帧的向量并归一化
    28. cv::Mat normali = mWorldPos - Owi;
    29. normal = normal + normali/cv::norm(normali);
    30. n++;
    31. }
    32. cv::Mat PC = Pos - pRefKF->GetCameraCenter(); // 参考关键帧相机指向地图点的向量(在世界坐标系下的表示)
    33. const float dist = cv::norm(PC); // 该点到参考关键帧相机的距离
    34. const int level = pRefKF->mvKeysUn[observations[pRefKF]].octave; // 观测到该地图点的当前帧的特征点在金字塔的第几层
    35. const float levelScaleFactor = pRefKF->mvScaleFactors[level]; // 当前金字塔层对应的尺度因子,scale^n,scale=1.2,n为层数
    36. const int nLevels = pRefKF->mnScaleLevels; // 金字塔总层数,默认为8
    37. {
    38. unique_lock lock3(mMutexPos);
    39. // 使用方法见PredictScale函数前的注释
    40. mfMaxDistance = dist*levelScaleFactor; // 观测到该点的距离上限
    41. mfMinDistance = mfMaxDistance/pRefKF->mvScaleFactors[nLevels-1]; // 观测到该点的距离下限
    42. mNormalVector = normal/n; // 获得地图点平均的观测方向
    43. }
    44. }

    2.4.3 函数解析  

            我们先用变量observations接收能观测到该地图点的所有关键帧及该地图点再该关键帧中的索引,pRefKF接收第一次创建该地图点的关键帧,Pos接收该地图点在世界坐标系中的位置。

            接着我们遍历所有可以观测到该地图点的关键帧,提取能观测到该地图点的相机坐标与地图点坐标,形成指向地图点的向量并归一化进行累加normal

             最后我们更新获得地图点平均的观测方向为(normal/能观测到该地图点的数量),并更新观测到该点的距离上限与观测到该点的距离下限。

  • 相关阅读:
    前端进击笔记第三节 CSS:页面布局的基本规则和方式
    Docker(1)
    Elasticsearch实战(六)---高级搜索 boost控制权重实现搜索结果排名
    vim设置Python语法:深入探索与个性化配置
    阿里Java架构师面试高频300题:集合+JVM+Redis+并发+算法+框架等
    陪诊系统|陪诊系统解放繁琐,为陪诊添便利
    Pandas数据清洗_Python数据分析与可视化
    实现页面全局Loading进度条实现
    【Vue】url拼接参数获取解析
    京东产品上架如何批量上传商品素材?
  • 原文地址:https://blog.csdn.net/qq_41694024/article/details/127946728