为什么我的AVFoundation演讲没有效果?
嘿,这是我的代码: func configureSpeechButton() { contentView.addSubview(speechButton) speechButton.setImage(speechImage, for: .normal) speechButton.addTarget(self, action: #selector(speechButtontapped), for: .touchUpInside) //Constraints speechButton.translatesAutoresizingMaskIntoConstraints = false speechButton.topAnchor.constraint(equalTo: contentView.topAnchor, constant: 40).isActive = true
6 2024-03-21
编程技术问答社区
语音控制API-对特定短语的高精确度
我对语音控制应用程序有几个想法.不幸的是,根据我从Siri和Google语音动作中看到的内容,该技术似乎还没有完全存在.即使在一个非常安静的环境中,准确性也是如此糟糕,以至于将其输入手机时通常会更容易. 使任务更容易的一种方法是将系统限制在几个命令中,特别选择以截然不同,而不是将声音传递给服务,而只是将文本恢复回去. 所以我的要求是: 当被要求使用有限的命令 时,精度非常高. 最好是在移动设备上工作,但是只有PC也只能有用 再次优选离线,但不是必需的 不需要开源 - 许可 这样的API或软件是否存在? 解决方案 我最近参与了一个项目,开发了一个基于移动语法的语音识别应用程序的平台,并具有以下功能: 语法是用语法框架,请参阅: http://kaljurand.github.com/grammars/ 服务器基于 sphinx ,请参阅: https://github.com/alumae/ruby-pocketsphinx-server 可
14 2024-02-05
编程技术问答社区
如何使用Siri在不捐赠意图或使用快捷方式的情况下创建自定义对象?
*使用Swift 4.2&Xcode 10.2 我试图通过允许用户免费创建对象来使我的应用程序更加丰富.该应用程序旨在使某些对象的创建更加容易,因此允许用户通过调用Siri创建基本对象是很棒的.但是,我希望在第一次下载/运行应用程序时已经集成了SIRI功能. 我现在与Sirikit和快捷方式遇到的问题: 建议您在移动应用中触发功能时"捐赠"自定义意图,以便Siri可以建议其他时间建议使用快捷方式 - 我希望这只是我不需要的标准功能捐赠". 我正在与一个较旧的目标用户群打交道,并提示最终用户进入他们的设置以将快捷方式添加到Siri,并在许多用户上丢失其他设置. 例如: 我的应用程序用于创建和发布具有名称和颜色属性的简单平面对象. 我想允许用户免提地初始化Siri并这样创建此对象: "嘿Siri,创建带有名称Warkhawk和Color Blue的飞机" Web充满了这些新快捷方式的信息,但是当您触发应用程序中的功能时,我不喜欢您必须"捐赠"意
8 2023-12-19
编程技术问答社区
如何与Sirikit创建和使用自定义词汇?
我希望Siri在我的特定命令中向我展示Siri的特定内容.我尝试将.plist添加到.lproj中,但对我不起作用. 解决方案 我无法理解您想做什么,所以我想提供一个建议,您不能在其功能之外使用 insendMessageIntent .这意味着您应该为自定义句子使用一些关键字,以使Siri了解您的自定义命令. 创建 appIntentVocabulary.plist 文件后,它需要发送到 Apple Siri服务器.您可以通过将iPhone Siri语言更改为您所知道的另一种语言,然后使用该语言使用简单的Siri消息过程来实现这一目标. 然后再次将其更改为您想要的语言. 每次更改appintentvocabulary.plist. 时执行此操作.
26 2023-12-18
编程技术问答社区
WatchKit:WatchKit应用程序中的语音到文本转换
任何人都可以帮助我使用示例代码,以将语音添加到Apple Watchkit应用中的文本转换功能. 解决方案 是的,这是可能的.这是文档: https://developer.apple.com/library/prerelease/ios/documentation/watchkit/watchkit/reference/wkinterfaceconfececontroller_htmllloll_htmlllloll_htmllull_htmll#/-花: 代码看起来像这样.您提供一个带有单词(或表情符号)的建议数组,并设置可以接受动画表情符号,表情符号或计划文本的允许输入模式. [self presentTextInputControllerWithSuggestions:@[@"hello", @"world"] allowedInputMode:WKTextInputModePlain completion:^(NSArray *results) {
8 2023-11-27
编程技术问答社区
iOS中的Siri聊天气泡颜色's
我尝试在核心图形中创建Siri Chat Bubble.我正处于可以绘制形状的阶段.我在这里被颜色困住了. WANAA获得边框颜色和填充颜色代码. 这是我到目前为止所做的. - (void)drawInContext:(CGContextRef)context { CGRect rect = gradientRectFrame; CGFloat radius = 30; CGFloat originBufferX = 0.0; CGFloat originBufferY = 0.0; CGFloat rightAngleTriangleWidth = 20.0; CGFloat rightAngleTriangleHeight = 20.0; CGFloat fullRectWidth = rect.size.width; CGFloat fullRectHeight = rect.size.height; CGPoint pointZero = CGPointMake(o
4 2023-11-03
编程技术问答社区
iOS文字转语音Api
我似乎找不到任何东西. iOS7中是否有Siri类或API可以让您进行语音文字?我要做的就是如下: [siriInstance say:@"This is a test"]; 然后让Siri从我的应用中说出来. 似乎我们应该能够做到这一点,不是吗?似乎是一个琐碎的事情. 解决方案 自ios 7以来,您有一个新的TTS API. 在目标C 中 AVSpeechSynthesizer *synthesizer = [[AVSpeechSynthesizer alloc]init]; AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:@"Some text"]; [utterance setRate:0.2f]; [synthesizer speakUtterance:utterance]; 在Swift 中 let synthesizer = AVS
50 2023-10-19
编程技术问答社区
我如何在Siri Intent Extension内打开我的SwiftUI应用程序并使用NSUseractivity执行一项功能?
我的问题 我的应用程序具有自己的快捷方式,该操作是使用意图扩展创建的.他们完美地执行背景动作. 对于某些操作,我试图在快捷方式运行并执行功能时使意图扩展打开主(容器)应用程序. 我在nsuseractivity方面遇到了麻烦,我不确定这是一个事实,这是一个swiftui项目还是我正在实施它(或两者). 我尝试过的 我在我的info.plist中注册了我的nsuseractivity名称为nsuseractivityType(" com.me.project.activityname"). 我已经在我的AppDelegate中添加了代码. 我在我的意图扩展中以与info.plist中声明的类型相同的类型初始化了一种新的nsuseractivity. 我也尝试在应用程序中宣布活动(我认为我不需要这样做?) 我正在运行: iOS(iPhone XS,Beta 6) MacOS 10.15 Catalina(Beta 5) Xcode 11.
20 2023-10-10
编程技术问答社区
在每个结果之后,清除sfspeechaudiobufferrecognitionrequest的输入(swift3)
我通过此 appcoda tutorial .我面临的问题是我希望用户可以自己编写/编辑某些内容,但是sfspeechaudiobufferrecognitionrequest并未考虑用户输入的内容. 在发送新请求之前,在sfspeechaudiobufferrecognitionrequest中发送用户键入输入或任何方法清除sfspspeechaudiobufferrecognitionRequest input params params的方法是什么. . 预先感谢. 解决方案 这是我用来创建识别请求的方法: func recordSpeech() throws { // Cancel the previous task if it's running. if let recognitionTask = recognitionTask { recognitionTask.cancel() self.recog
28 2023-10-10
编程技术问答社区
在Sirikit中创建自定义类型参数
我正在从事Siri Kit,并尝试以IntentDefinition创建自己的数据类型. 我参考了Apple在上一届WWDC 2019上介绍的SoupChef演示项目,在该演示项目 Toppings 字段中具有 Custom 类型. 那么,自定义类型如何显示并进入数据类型/下拉列表?见下文 如何创建自定义类型字段? 预先感谢您. 解决方案 屏幕截图的左侧有OrderSoup,Soup,OrderType,OrderDetails.如果您在左侧的较低部分中看,则有一个搜索栏,在该搜索栏的左侧,有一个负号和一个加号.单击加上一个,您可以定义自己的自定义类型或自定义枚举.当定义时,然后在屏幕截图的下拉菜单中可以访问它们.
10 2023-10-09
编程技术问答社区
如何与iOS 16应用程序意图中的用户位置一起工作?
我正在使用iOS 16中的新Appintents Framework在应用程序快捷方式上工作,并且我正在尝试获取用户的当前位置,所有内容都已启用并使用Permissions 正确设置 func perform() async throws -> some IntentResult { //Request User Location IntentHelper.sharedInstance.getUserLocation() guard let userCoords = IntentHelper.sharedInstance.currentUserCoords else { throw IntentErrors.locationProblem } //How to wait for location?? return .result(dialog: "Worked! Current coords are \(userC
16 2023-10-09
编程技术问答社区
如何管理Siri意图启动我的应用程序并将数据传输给应用程序?
搜索几个小时后,我寻求您的帮助. 我正在编写一个应用程序来管理我的库存.作为通过专用视图" AddNewentry"在库存项目中的手册键入的替代方案,我想使用Siri和一种意图来捕获"商店" item at 位置在 中. item , plac e和部分是我要通过siri获得的属性我处理这些数据的手册输入,检查和存储.为了将意图的新数据移交给我的MainViewController,然后将通知启动到视图以显示和检查/存储新条目. 我已经通过意图定义设置了意图(" vorratadd"),并且快捷方式似乎可以正常运行并收集数据.但是,快捷方式不会返回我的应用程序,并以弹出视图结束,并带有诸如(我的德语翻译): : " vorrat add"无法执行.任务花费太长而无法关闭. 再次重试" 我的设置如下: 我的意图vorratadd处理程序: import Foundation import Intents import UIKit class Vorrat
18 2023-10-09
编程技术问答社区
通过Sirikit启动应用程序时,打开其他UiviewController
我正在尝试在我的iOS应用中实现sirikit.当应用程序通过 siri启动时,我想打开其他视图控制器. 如何在我的应用中处理此类操作? 解决方案 您可以做到这一点,但是,首先,您必须在应用程序中设置Sirikit,这是有点工作,其中有很多说明:. 还有一个苹果组合的样本sirikit应用程序称为unicornchat: https://developer.apple.com/library/content/samplecode/unicornchat/introduction/introdo.html 一旦添加了Sirikit应用程序扩展名并正确处理了您的意图,您就可以使用与您的意图相关的响应代码将其发送到您的应用程序.这将打开您的应用程序,您可以通过将以下代码添加到您的应用程序委托: 来捕获并将其发送给任何ViewController. func application(_ application: UIApplication, continue userA
6 2023-10-08
编程技术问答社区
未被调用的Sirikit-handler
我目前正在我的应用程序中添加sirikit,并且我创建了一个启动类.在我的信息中,我有以下代码如下. 但是,每次我尝试在设备上运行意图扩展类时,siri都没有调用覆盖手柄方法.我已经在每种方法中添加了日志,但没有成功.我还有其他东西吗? 也仅供参考,在发布此之前,我转介了链接,但没有答案: link NSExtension NSExtensionAttributes IntentsRestrictedWhileLocked INSearchForAccountsIntent IntentsSupported INSe
16 2023-10-08
编程技术问答社区
包含来自单独 Ruby 文件的命令
我有一块具有命令的代码.我想将更多命令保留在单独的文件中,然后将其拉到主文件中.因此,我的主文件可以更新而不会丢失任何自定义命令.我该怎么做? { class myClass() #commands listen_for /what is your name/i do say "my name is mud" end ## Insert Custom.rb here ## # Everything in the custom rb file is just ike the "listen_for" command above end } 解决方案 在这种情况下,上面的答案将不起作用,因为在custom.rb file.rb文件中没有侦听_ 在模块中包裹您在custom.rb中所拥有的任何内容,例如 module Foo # commands end 需要您的文件custom.rb在您的脚本顶部,并将其包括在类中: require_relat
14 2023-09-20
编程技术问答社区
iPhone。语音识别在IOS SDK中可用吗?
有人知道,如果在iOS 5或iOS 6 SDK中可以访问Siri中使用的"文本"和"文本到语音" API? 我进行了研究,但在文档中找不到任何有关它的信息,因此,如果SDK中未包含在文档中,那么市场上是否有" Siri"质量库吗? 解决方案 siri尚未以API形式提供,但是,可以要求使用内置的选项进行语音到文本. 其他解决方案 在: http://www.politepix.com/openears I i i, 've在实验上使用了它,并且效果很好.它会很好地识别预设的词汇.在识别单词之前,有一个小的停顿左右,并且在有很多声音(拥挤的餐厅)的环境中感到困惑,但是在一个相当安静的环境中,我发现它效果很好. 其他解决方案 ios 10引入了新的语音识别API- SFSpeechRecognizer. /
14 2023-09-08
编程技术问答社区
如何在iOS SDK中使用语音识别?
我知道没有公共API用于Siri-Services, 但是,是否有简单的语音识别的API?因此,如果我有一个文本字段,用户点击了该文本字段,则会出现带有麦克风按钮的键盘,如果他按下了键盘,则语音被识别并转换为字符串对象?还是默认情况下可能会显示此按钮? 解决方案 有许多可用的库.您可以使用其中任何一个. OpenArears //这是最好的图书馆 votalkit (开放的耳朵不推荐) tts ispeech (不免费) 希望它对您有帮助. 注意: 如果您下载 openAREARS (,其中包含一个示例项目,称为" openarearsssmpleapp" em>)@efimovd提到此 检查查看控制器中的代码,您将看到一个带有的数组 可能的命令.这东西检测到命令!没有说话.它 倾听并试图将您所说的话与 数组 其他解决方案 您可以使用Expect Labs提供的MindMeld IOS SDK.它支持iOS上的连续(流)语音识别
26 2023-09-08
编程技术问答社区
有没有办法像 "举手发言 "功能那样监控用户的移动?
我想在用户将iPhone提高到他的脸上时得到通知.就像Siri一样.有可能吗? 添加更具体的要求: 当用户将手机放在耳朵附近时,我想使屏幕变暗.我知道接近传感器可以实现.但是,当用户将手指移到传感器上时,屏幕会不时变暗,这很烦人.因此,我想知道如何避免这种情况,并且只有在用户提高iPhone讲话时才会使屏幕变暗? 解决方案 请参阅使用接近传感器在 uidevice类参考中. so,您: 启用它: UIDevice *device = [UIDevice currentDevice]; device.proximityMonitoringEnabled = YES; 检查是否成功启用;观察if (device.proximityMonitoringEnabled) { [[NSNotificationCenter defaultCenter] addObserver:self selector:@selector(handleProximityChange:)
34 2023-08-28
编程技术问答社区
通过iphone应用程序访问Siri
我正在制作一个应用程序,我想在其中实现Siri/语音识别的概念.我尝试过 this ,但没有完全获得输出,它无法正确识别该单词.有人想到如何将语音转换为文本吗?如何访问SIRI功能.如果有人知道此实施,请告诉我. 感谢所有人. 解决方案 您无法访问Siri功能,Apple没有为Siri提供公共API:-s. 我见过的最好的API是OpenEars和龙移动SDK . 其他解决方案 您无法直接访问Siri接口,但是可以处理Siri命令的好技巧.您可以实现UITextField并捕获Siri在此写入的文本,这样您就可以使您的应用执行口语命令. 您可以在此处找到有关该主题的更多解释: siri trick
24 2023-06-03
编程技术问答社区
有什么办法可以肯定地知道我的应用程序在运行时启动了siri吗?
假设,当用户使用该应用时,他长时间敲打了主页按钮,Siri打开了.有什么方法可以通过某些事件或通知或委托方法知道这一点? 我想知道我的应用程序运行时是否启动了Siri.有什么确定的方法可以知道吗? 解决方案 Swift 4.1 -IOS 12.0.0 到目前为止 注意:请在您的项目中仔细对其进行仔细检查(,因为我们依靠与Siri Kit ) func hasSiri() -> Bool { let audioSession = AVAudioSession.sharedInstance() return audioSession.inputDataSource == nil || audioSession.inputDataSources == nil || audioSession.inputDataSources?.isEmpty == true } 其他解决方案 根据您的要求,没有方法会通知应用程序Sir
10 2023-06-03
编程技术问答社区