您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. pico-tflmicro:Pico TensorFlow Lite端口-源码

  2. TensorFlow Lite Micro 适用于所有人的开源机器学习框架。 介绍 这是用于Raspberry Pi Pico微控制器的的版本。它使您可以运行机器学习模型来执行语音识别,检测图像中的人物,识别来自加速度计的手势以及其他传感器分析任务。 入门 首先,您需要按照Pico设置说明来初始化计算机上的开发环境。完成此操作后,请确保将PICO_SDK_PATH环境变量设置为Pico SDK的位置,无论是在您正在构建的外壳中,还是在扩展的CMake configure环境变量设置中(如果您使用
  3. 所属分类:其它

  1. Pamplemousse:将PMML模型转换为Lua脚本的工具-源码

  2. 庞波慕斯 什么是庞波慕斯? Pamplemousse是用于将模型转换为脚本的优化编译器。它旨在生成Lua,以忠实地代表PMML标准指定的模型的确切行为,同时使其高效且易读。 是给谁用的? Pamplemousse适用于希望使用机器学习解决实际问题的务实人士,尤其是在延迟至关重要的情况下。 我为什么要它? Pamplemousse允许您使用由项目中各种机器学习软件生成的高级ML模型。要开始在今天的生产中使用庞然大物,您只需要将Lua与您的解决方案集成即可。 Lua是一种成熟,知名且非常有效的
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:239kb
    • 提供者:weixin_42109545
  1. benchml:ML基准测试和流水线框架-源码

  2. 描述 BenchML是用于快速开发和部署ML模型的机器学习(ML)套件。 该库适用于物理/化学数据集和预测设置。 它实现了转换并为各种原子和分子描述符,数据过滤和特征生成例程,回归器和分类器等提供了插件。可以使用基于网格的协议或贝叶斯协议有效地优化管道,从而通过依赖项哈希最小化重新计算。 安装 对于没有插件的最小化安装,只需 pip install benchml 要进行完整安装,请从env.yml创建一个(新的)conda环境。 例如, git clone https://github.c
  3. 所属分类:其它

  1. deploy_ml_model:部署ML模型-源码

  2. deploy_ml_model 部署ML模型
  3. 所属分类:其它

  1. ML-Model-Deployment-源码

  2. ML模型部署 建立的ML模型可使用年龄,估计工资,性别等预测变量来预测一个人是否可以购买汽车。 使用statsmodels库构建逻辑回归。 要在服务器上上传模型,请使用pickle库。 Pickle库用于分别将python对象序列化和反序列化为字节对象和字节对象为python对象。 Flask框架创建框架。 在服务器上,我们有4个字段用于添加用户名,性别,年龄,预计薪金功能。 填写完所有必需的详细信息后,我们可以提交按钮,并可以在网页上看到具有特定详细信息的特定人是否可以购买汽车。
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:23kb
    • 提供者:weixin_42137723
  1. amongushack-源码

  2. DietIQ : 这是一个用户友好的门户网站,允许用户选择他/她习惯的饮食计划,并使用高效的机器学习算法,在遵循相应饮食6周后预测体重下降。 关于网站: 该网站通过估算以下3种不同的饮食可以达到的体重,帮助您计划饮食。 它以您的年龄,身高,现在的体重和性别作为输入。然后,通过数据库的处理(通过收集来自世界各地人们的反馈而收集),它可以预测您的估计体重。 先决条件: 网络浏览器(与Google Chrome最兼容) 建于 Jupyter笔记本-用于创建ML模型 Flask-用于创建网络应用
  3. 所属分类:其它

  1. ML-Explorer-源码

  2. ML资源管理器 概述: 该项目需要对值得注意的ml模型进行探索和部署。 ML Explorer可用于了解和尝试最新机器学习模型必须提供的出色新功能。 动机和背景: 在各种情况下,机器学习的初学者和新手都想尝试ml模型。 帮助学生了解用于部署机器学习模型的技术。 目标: 创建一个集体网站,以展示最佳的机器学习模型。 参考:
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:208kb
    • 提供者:weixin_42127020
  1. ML-Online-Near-real-time-Serving:[WIP]补充了《机器学习工程银河系漫游指南》,涵盖了几乎实时提供ML在线服务-源码

  2. 在线服务(近实时) 在线推理绝对比批处理推理更具挑战性。 为什么? 由于我们系统上的延迟限制。 在线推论是关于以低延迟对最终用户的请求做出响应。 优化的内容:延迟 最终用户:通常与可通过API直接获得的模型进行交互 验证:通过A / B测试离线和在线 高级研讨会:Azure在线服务(近实时) 这个工作坊是WIP 它将涵盖使用Python运行时将机器学习模型部署到Azure Functions的实际用例及其故障排除。 附加功能 要了解有关MLOps和在线服务的更多信息,请执行以下操作:
  3. 所属分类:其它

  1. Yolov5Wpf:使用ML.NET部署YOLOV5的ONNX模型-源码

  2. 约洛夫5Wpf 使用ML.NET部署YOLOV5的ONNX模型
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:20kb
    • 提供者:weixin_42131443
  1. Waste-Segregation:#HackBash2021废物分类-源码

  2. 废物分类 HackBash2021 | 废物分类 该仓库由2个分支组成,ML代码位于主分支中,React.js网页位于react-app分支中。 因此,请检查两个分支的自述文件。 查看我们的网页: 1.您正在处理的定义是什么 我们正在努力解决废物管理问题。 我们已经观察到许多城市,州甚至国家在如何处理废物方面都面临着问题。 废物管理系统有一条黄金3R规则,即“减少回收再利用”。 但是,如果我们还考虑可生物降解和不可生物降解的分类,则将变得更加有效。 由于可生物降解的废物可用于生产沼气和各种有用的
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:60kb
    • 提供者:weixin_42166626
  1. Deploying-ML-Model-on-Azure-using-Docker-Container:构建ML模型,使用Flask为模型创建API,对Flask Web App进行Docker化,并在Azure上进行部署-源码

  2. 使用docker容器在azure上部署ML模型 涉及构建ML模型,使用Flask为该模型创建API,对Flask Web应用程序进行Docker化以及在Azure云平台上进行部署。 概述 此存储库演示了如何使用Flask和Docker Container将Azure机器学习模型作为Web服务部署在Azure上。 文件说明 房屋价格预测文件夹 pricepredmodel.py-用于为房价预测问题构建机器学习模型。 我们正在使用多元线性回归模型进行预测。 该文件将生成模型的pickle版本(mod
  3. 所属分类:其它

  1. systemds:用于端到端数据科学生命周期的开源ML系统-源码

  2. 注意: SystemDS已合并回Apache SystemML,成为 (2020年3月27日)。 系统DS 概述: SystemDS是用于端到端数据科学生命周期的通用系统,从数据集成,清理和功能工程到有效的本地和分布式ML模型培训,再到部署和服务,都可从其实现。 为此,我们旨在为(1)数据科学生命周期的不同任务以及(2)具有不同专业知识的用户提供具有R形语法的声明性语言堆栈。 这些高级脚本被编译为本地,内存CPU和GPU操作以及Apache Spark上的分布式操作的混合执行计划。 与提供均质
  3. 所属分类:其它

  1. Cloud_Management-源码

  2. 云端管理 项目:BUS HUB 实验1:了解各种Amazon Web Services(AWS)的定义及其在可通过Internet访问的基于云计算的Web应用程序中的用法。 我使用Amazon Elastic Compute Cloud(Amazon EC2)来配置,启动并连接到Linux和Windows实例,还使用AWS CodeDeploy将网页从GitHub部署到EC2实例 实验2:了解Google的核心基础架构及其Cloud Platform Compute Engine,该引擎可提供运
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:19mb
    • 提供者:weixin_42123237
  1. iter8:带有文档的主要iter8存储库-源码

  2. Iter8 有关Iter8文档,请参见 。 什么是Iter8? 您已经开发了微服务应用程序或ML模型的多个版本。 您想确定获胜的版本并以可靠的方式推广获胜者。 输入Iter8。 Iter8使您能够结合最佳的AI,发布工程和可观察性,快速,稳健地在k8s应用程序和ML模型中释放业务价值。 使用Iter8的AI驱动的实验功能来安全地在Kubernetes和OpenShift集群上对您的应用程序和ML模型的新版本进行实验,通过在生产或暂存环境中的实际用户请求获得对它们行为的关键见解,逐步转移
  3. 所属分类:其它

  1. ML模型部署-源码

  2. ML模型部署
  3. 所属分类:其它

  1. ML-模型-部署-泊坞窗-源码

  2. ML-模型-部署-泊坞窗 我试图展示一种示例方法来创建可由利益相关者使用的某些软件。 具体来说,我们将创建一个可查询以从机器学习模型获得预测的Web服务。 该职位主要供那些想要超越仅开发模型的机器学习从业人员使用。 工作流程 在本地系统上训练机器学习模型。 将推理逻辑包装到flask应用程序中。 使用Docker容器化Flask应用程序。 使用model_train.py在虹膜数据集上训练逻辑回归模型,并生成一个腌制的模型文件(iris_trained_model.pkl)。使用app.p
  3. 所属分类:其它

  1. 销售预测ML-Flask-Web-App-源码

  2. 销售预测ML-Flask-Web-App 项目名称:基于销售预测烧瓶的Web应用程序 我已经部署了自己的基于First Flask的基于Web的应用程序,称为Sales Prediction,该应用程序通过提供一些功能作为输入来尝试预测某个月的销售量。 该项目是通过在从Kaggle获得的数据集上训练基于机器学习的模型而完成的。 输入被输入到机器学习模型中,该模型将预测输出,并且最终使用flask在浏览器上显示输出。
  3. 所属分类:其它

  1. Deploy_Machine_Learning_Projects:该存储库包含使用Python,Django和其他技术部署AI,ML模型的示例-源码

  2. Deploy_Machine_Learning_Projects 该存储库包含使用Python,Django和其他技术部署AI,ML模型的示例。 为数据科学项目部署Flask应用程序-https: 这里为流行的IRIS数据集开发了ML模型,该模型作为pickel文件导出,则使用Flask代码加载pickle文件,并将其作为API公开。 使用Flask部署张量流深度学习模型-https: 使用Flask部署chatterbot chatbot代码-https: 使用Flask部署op
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:239kb
    • 提供者:weixin_42134554
  1. turicreate:Turi Create简化了自定义机器学习模型的开发-源码

  2. 快速链接:| | | Turi创建 查看我们在和演讲! Turi Create简化了自定义机器学习模型的开发。 您无需成为机器学习专家即可向您的应用添加建议,对象检测,图像分类,图像相似度或活动分类。 易于使用:专注于任务而不是算法 可视化:内置的流式可视化以浏览数据 灵活:支持文本,图像,音频,视频和传感器数据 快速且可扩展:在一台机器上处理大型数据集 准备部署:将模型导出到Core ML,以便在iOS,macOS,watchOS和tvOS应用中使用 使用Turi Create,您可以完
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:143mb
    • 提供者:weixin_42143161
  1. ml-deployment-on-gcloud:Google Cloud Run上通往CICD的机器学习模型的管道-源码

  2. Google Cloud Run上的机器学习部署管道 若昂·阿劳霍(JoãoAraujo),2020年5月4日 此项目是一个简单示例,说明如何在持续集成和部署(CI / CD)上下文中在Google Cloud上部署您的机器学习算法。 为此,我了解您需要具备以下技能: Python: Intermediate 烧瓶: Basic 码头: Intermediate Docker: Basic 云: Basic TL; TR; 我配置了一个管道来在Google Cloud Platfor
  3. 所属分类:其它

« 12 3 4 5 6 7 8 »