ARKit 1.5引入了图像识别功能.在代码中,您必须创建一组参考图像,如下所示:
let referenceImages = ARReferenceImage.referenceImages(inGroupNamed: "AR Resources",bundle: nil)

然后可以识别集合中包含的图像.

我想知道是否可以动态添加图像到此AR Resources文件夹.例如,用户可以拍照并将其发送到服务器,然后由ARKit识别.或者用户可以根据他的位置等接收一组图像.

解决方法

尽管您可以动态创建图像,但无法在运行时修改默认文件夹的内容.

举个例子,让我们把一个图像放到Assets文件夹(而不是ARResources文件夹)中,在我的例子中称为’moonTarget’.

然后我们可以创建一个我们在viewDidLoad等中调用的函数:

/// Create ARReference Images From Somewhere Other Than The Default Folder
func loadDynamicImageReferences(){

    //1. Get The Image From The Folder
    guard let imageFromBundle = UIImage(named: "moonTarget"),//2. Convert It To A CIImage
    let imagetoCIImage = CIImage(image: imageFromBundle),//3. Then Convert The CIImage To A CGImage
    let cgImage = convertCIImagetoCGImage(inputimage: imagetoCIImage)else { return }

    //4. Create An ARReference Image (Remembering Physical Width Is In Metres)
    let arImage = ARReferenceImage(cgImage,orientation: CGImagePropertyOrientation.up,physicalWidth: 0.2)

    //5. Name The Image
    arImage.name = "CGImage Test"

    //5. Set The ARWorldTrackingConfiguration Detection Images
    configuration.detectionImages = [arImage]
}


/// Converts A CIImage To A CGImage
///
/// - Parameter inputimage: CIImage
/// - Returns: CGImage
func convertCIImagetoCGImage(inputimage: CIImage) -> CGImage? {
    let context = CIContext(options: nil)
    if let cgImage = context.createCGImage(inputimage,from: inputimage.extent) {
     return cgImage
    }
    return nil
}

然后我们可以在ARSCNViewDelegate中测试它:

func renderer(_ renderer: SCNSceneRenderer,didAdd node: SCNNode,for anchor: aranchor) {

    //1. If Out Target Image Has Been Detected Than Get The Corresponding Anchor
    guard let currentimageAnchor = anchor as? ARImageAnchor else { return }

    let x = currentimageAnchor.transform
    print(x.columns.3.x,x.columns.3.y,x.columns.3.z)

    //2. Get The Targets Name
    let name = currentimageAnchor.referenceImage.name!

    //3. Get The Targets Width & Height In Meters
    let width = currentimageAnchor.referenceImage.physicalSize.width
    let height = currentimageAnchor.referenceImage.physicalSize.height

    print("""
    Image Name = \(name)
    Image Width = \(width)
    Image Height = \(height)
    """)

    //4. Create A Plane Geometry To Cover The ARImageAnchor
    let planeNode = SCNNode()
    let planeGeometry = SCNPlane(width: width,height: height)
    planeGeometry.firstMaterial?.diffuse.contents = UIColor.white
    planeNode.opacity = 0.25
    planeNode.geometry = planeGeometry

    //5. Rotate The PlaneNode To Horizontal
    planeNode.eulerAngles.x = -.pi/2

    //The Node Is Centered In The Anchor (0,0)
    node.addChildNode(planeNode)

    //6. Create AN SCNBox
    let BoxNode = SCNNode()
    let BoxGeometry = SCNBox(width: 0.1,height: 0.1,length: 0.1,chamferRadius: 0)

    //7. Create A Different Colour For Each Face
    let faceColours = [UIColor.red,UIColor.green,UIColor.blue,UIColor.cyan,UIColor.yellow,UIColor.gray]
    var faceMaterials = [SCNMaterial]()

    //8. Apply It To Each Face
    for face in 0 ..< 5{
        let material = SCNMaterial()
        material.diffuse.contents = faceColours[face]
        faceMaterials.append(material)
    }
    BoxGeometry.materials = faceMaterials
    BoxNode.geometry = BoxGeometry

    //9. Set The Boxes Position To Be Placed On The Plane (node.x + Box.height)
    BoxNode.position = SCNVector3(0,0.05,0)

    //10. Add The Box To The Node
    node.addChildNode(BoxNode)   
}

正如您所看到的,也可以从实时馈送中应用相同的内容.

希望这可以帮助…

正如@Karlis所说,您还可以查看使用ondemandResouces,然后将它们转换为ARReferenceImage的所需规格.

ios – 动态添加图像到AR资源以进行图像识别的更多相关文章

  1. ios – 动态添加图像到AR资源以进行图像识别

    正如@Karlis所说,您还可以查看使用ondemandResouces,然后将它们转换为ARReferenceImage的所需规格.

  2. 在iOS视角中,人脸检测与人脸识别有什么区别

    可能这听起来像是一个愚蠢的,但我真的很想知道,iOS视角中的“人脸检测和人脸识别”有什么区别?

  3. Android增强现实应用的图像识别

    首先,抱歉我的英语不好.我打算为Android移动平台构建一个增强现实应用程序,主要功能是用户拍摄商店的能力,应用程序识别他正在拍摄的商店.我不知道最好的选择是使用现有的图像识别api,但我认为它会更具体.也许拥有一组图像会有所帮助.我的计划是拥有一个商店数据库及其位置,并使用许多工具之一进行图像识别,并在我的数据库中搜索到同一位置.但我发现所有搜索引擎图像(kooba,iqengines等)都不

  4. iOS通过摄像头图像识别技术分享

    本篇文章给大家详细讲述了让IOS开发中通过摄像头进行图像识别的相关技术,对此有兴趣的朋友参考学习下吧。

  5. Node Puppeteer图像识别实现百度指数爬虫的示例

    本篇文章主要介绍了Node Puppeteer图像识别实现百度指数爬虫的示例,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧

  6. 如何制作一个Node命令行图像识别工具

    这篇文章主要介绍了如何制作一个Node命令行图像识别工具,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧

  7. 用于图像识别的C库:包含字符串的图像

    有没有人知道用于拍摄图像并在其上执行图像识别的c库,以便它可以根据给定的字体和/或字体高度找到字母?

随机推荐

  1. iOS实现拖拽View跟随手指浮动效果

    这篇文章主要为大家详细介绍了iOS实现拖拽View跟随手指浮动,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

  2. iOS – genstrings:无法连接到输出目录en.lproj

    使用我桌面上的项目文件夹,我启动终端输入:cd然后将我的项目文件夹拖到终端,它给了我路径.然后我将这行代码粘贴到终端中找.-name*.m|xargsgenstrings-oen.lproj我在终端中收到此错误消息:genstrings:无法连接到输出目录en.lproj它多次打印这行,然后说我的项目是一个目录的路径?没有.strings文件.对我做错了什么的想法?

  3. iOS 7 UIButtonBarItem图像没有色调

    如何确保按钮图标采用全局色调?解决方法只是想将其转换为根注释,以便为“回答”复选标记提供更好的上下文,并提供更好的格式.我能想出这个!

  4. ios – 在自定义相机层的AVFoundation中自动对焦和自动曝光

    为AVFoundation定制图层相机创建精确的自动对焦和曝光的最佳方法是什么?

  5. ios – Xcode找不到Alamofire,错误:没有这样的模块’Alamofire’

    我正在尝试按照github(https://github.com/Alamofire/Alamofire#cocoapods)指令将Alamofire包含在我的Swift项目中.我创建了一个新项目,导航到项目目录并运行此命令sudogeminstallcocoapods.然后我面临以下错误:搜索后我设法通过运行此命令安装cocoapodssudogeminstall-n/usr/local/bin

  6. ios – 在没有iPhone6s或更新的情况下测试ARKit

    我在决定下载Xcode9之前.我想玩新的框架–ARKit.我知道要用ARKit运行app我需要一个带有A9芯片或更新版本的设备.不幸的是我有一个较旧的.我的问题是已经下载了新Xcode的人.在我的情况下有可能运行ARKit应用程序吗?那个或其他任何模拟器?任何想法或我将不得不购买新设备?解决方法任何iOS11设备都可以使用ARKit,但是具有高质量AR体验的全球跟踪功能需要使用A9或更高版本处理器的设备.使用iOS11测试版更新您的设备是必要的.

  7. 将iOS应用移植到Android

    我们制作了一个具有2000个目标c类的退出大型iOS应用程序.我想知道有一个最佳实践指南将其移植到Android?此外,由于我们的应用程序大量使用UINavigation和UIView控制器,我想知道在Android上有类似的模型和实现.谢谢到目前为止,guenter解决方法老实说,我认为你正在计划的只是制作难以维护的糟糕代码.我意识到这听起来像很多工作,但从长远来看它会更容易,我只是将应用程序的概念“移植”到android并从头开始编写.

  8. ios – 在Swift中覆盖Objective C类方法

    我是Swift的初学者,我正在尝试在Swift项目中使用JSONModel.我想从JSONModel覆盖方法keyMapper,但我没有找到如何覆盖模型类中的Objective-C类方法.该方法的签名是:我怎样才能做到这一点?解决方法您可以像覆盖实例方法一样执行此操作,但使用class关键字除外:

  9. ios – 在WKWebView中获取链接URL

    我想在WKWebView中获取tapped链接的url.链接采用自定义格式,可触发应用中的某些操作.例如HTTP://我的网站/帮助#深层链接对讲.我这样使用KVO:这在第一次点击链接时效果很好.但是,如果我连续两次点击相同的链接,它将不报告链接点击.是否有解决方法来解决这个问题,以便我可以检测每个点击并获取链接?任何关于这个的指针都会很棒!解决方法像这样更改addobserver在observeValue函数中,您可以获得两个值

  10. ios – 在Swift的UIView中找到UILabel

    我正在尝试在我的UIViewControllers的超级视图中找到我的UILabels.这是我的代码:这是在Objective-C中推荐的方式,但是在Swift中我只得到UIViews和CALayer.我肯定在提供给这个方法的视图中有UILabel.我错过了什么?我的UIViewController中的调用:解决方法使用函数式编程概念可以更轻松地实现这一目标.

返回
顶部