版本: 7.12-8.9
简要来说,当 Elasticsearch 的机器学习功能尝试执行推理任务但找不到合适的模型时,就会出现此错误。这可能是由于模型未加载,或者模型 ID 不正确导致的。要解决此问题,请确保您尝试使用的模型已加载到 Elasticsearch 中。如果已加载,请检查模型 ID 是否正确并与推理任务中的 ID 一致。如果模型未加载,则需要在运行推理任务之前先加载它。
日志上下文 #
日志"No model could be found to perform inference"的类名是 InferenceStep.java. 我们从 Elasticsearch 源代码中提取了以下内容,以便那些需要深入了解上下文的人参考:
searchRequest.source(searchSourceBuilder); executeAsyncWithOrigin(client; ML_ORIGIN; SearchAction.INSTANCE; searchRequest; ActionListener.wrap(searchResponse -> {
SearchHit[] hits = searchResponse.getHits().getHits();
if (hits.length == 0) {
listener.onFailure(new ResourceNotFoundException("No model could be found to perform inference"));
} else {
listener.onResponse(hits[0].getId());
}
}; listener::onFailure));
}





