本篇内容主要讲解“怎么在Amazon Sagemaker上设置功能”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么在Amazon Sagemaker上设置功能”吧!
机器学习生命周期
让我们花点时间来回顾一下机器学习的生命周期。简化的机器学习生命周期如下所示:
现在,第一部分,数据准备,实际上应该是包括数据预处理和用于接下来步骤所需的特征工程。我将简要地概述这些步骤是什么样子。
-
获取数据:这是一个从repo、etl等读取数据的过程,将数据移动到一个位置,以形成训练数据的原始版本。
-
清理数据:这个阶段更多的是做一些基本的清理,比如类型转换、空处理、确保字符串/类别等是一致的
-
准备/转换:特征转换、派生、高阶特征,如交互特征、进行一些编码等。
下一阶段包括建模和评估阶段:
-
训练模型:在这个阶段,你的数据应该以特征向量的形式出现,标签分为训练、验证和测试。在这个阶段,你将读取这些数据,在训练集上训练你的模型,在验证集上调参并在测试集上进行测试!这也是你保存模型以进行评估的阶段。
-
评估模型:评估阶段,判断是否“我的模型做正确的事情”,是最重要的阶段之一,我觉得我们从来没有花足够的时间在这个阶段上。模型评估将帮助你了解模型性能。注意你的模型评估指标,并选择正确的指标。
最后,也是我们阅读本文的真正原因,部署。
-
部署到生产环境:这是准备将模型发布到公共的阶段。我们要注意概念漂移和模型衰减(由于底层分布的变化而导致性能的变化)
-
监控/收集/评估数据:模型性能、输入/输出路径、错误度量、日志、模型组件等都将被时间戳标记和记录,应围绕模型选择建立度量监控和警报系统,以实现完美的管道!
以上是一个简化但很漂亮的机器学习管道。现在让我们看看如何使用Amazon Sagemaker设置一个。
Amazon Sagemaker
现在,第一步从创建AWS帐户开始。如果你已经熟悉Amazon提供的实例(ec2实例)的类型,这会有所帮助。
Sagemaker实例针对运行机器学习(ML)算法进行了优化。实例的类型还取决于区域和可用区域。
如果你觉得过多地阅读有关实例类型的详细信息很无聊,那么就可以简化成以下选项:
启动ML的好实例:ml.m4.xlarge (not free)
启动DL的好实例:ml.p2.xlarge (not free)
AWS Sagemaker EC2实例有与之关联的默认配额。你可能不总是得到20,这也会随着区域的不同而变化。
根据用例的不同,你可能需要请求和增加。这可以通过创建一个带有AWS支持中心的案例来实现。
Sagemaker Notebook实例
现在要启动sagemaker Notebook实例,请转到aws帐户服务来搜索sagemaker。进入sagemaker页面后,单击创建notebook实例。如下所示:
下一步是选择IAM角色。首先,尝试创建一个新角色,然后选择none作为s3bucket,除非有一个s3bucket要从中读取。另外,此时应该有一个可选的选择来选择git存储库。滚动到下方并单击“创建Notebook实例”。
你可以看到正在创建的Notebook的状态,一旦准备就绪,你可以选择jupyter或jupyter lab。
如果你需要克隆你的git存储库,打开终端从右边的jupyter面板,选择new,并执行以下操作:
cd SageMaker git clone myFunSagemakerRepo
这应该为你设置一个notebook实例和一个GitHub存储库。
Sagemaker会议和角色
我们将使用load_boston() 方法从sklearn获取数据集。然后,我们将这个数据集拆分为训练、验证和测试集。
#加载数据 boston_data = load_boston() #训练数据 X_bos_pd = pd.DataFrame(boston_data.data, columns=boston_data.feature_names) #目标 Y_bos_pd = pd.DataFrame(boston_data.target) #训练/测试分离 X_train, X_test, Y_train, Y_test = sklearn.model_selection.train_test_split(X_bos_pd, Y_bos_pd, test_size=0.20) #训练验证分离 X_train, X_val, Y_train, Y_val = sklearn.model_selection.train_test_split(X_train, Y_train, test_size=0.33)
一旦训练、验证和测试数据集被创建,这些数据集需要上传到s3(简单存储服务)存储桶中,以便sagemaker容器在执行训练作业时可以访问它。
最好使用前缀指定位置,最好是型号名称和版本,以确保路径干净。上传后,你可以从控制台转到s3服务并进行检查。
prefix = 'boston-xgboost-example' test_location = session.upload_data(os.path.join(data_dir, 'test.csv'), key_prefix=prefix) val_location = session.upload_data(os.path.join(data_dir, 'validation.csv'), key_prefix=prefix) train_location = session.upload_data(os.path.join(data_dir, 'train.csv'), key_prefix=prefix)
Sagemaker 训练
在sagemaker中训练机器学习模型涉及到创建训练工作。我们将使用xgboost模型。
要训练sagemaker模型,第一个任务是创建一个包含以下内容的训练工作:
-
S3训练/验证集的位置(注:这应该是csv文件)
-
模型的计算资源(这与我们用于Notebook的资源不同)
-
输出S3位置(模型)
-
内置模型的Docker路径
模型评估器
-
为了训练一个模型,我们需要创建一个模型估计器。这将包含如何训练模型(配置)的信息。
-
我们将使用名为get_image_uri的SageMaker实用程序方法来获取内置算法容器的路径
-
estimator初始化如下所示。我在这里用了一个付费的例子。
container = get_image_uri(session.boto_region_name, 'xgboost') #xgboost estimator xgb_estimator = sagemaker.estimator.Estimator( container, role, train_instance_count=1, train_instance_type='ml.m4.xlarge', output_path='s3://{}/{}/output'.format(session.default_bucket(), prefix), sagemaker_session=session )
模型超参数
-
在任何一种模型训练方法中,最重要的部分是,在开始训练之前,我们需要调用estimator的set_hyperparameters 方法。
-
当estimator都设置好后,就可以开始训练了
xgb_estimator.set_hyperparameters(max_depth=5, eta=0.2, gamma=4, min_child_weight=6, subsample=0.8, objective='reg:linear', early_stopping_rounds=10, num_round=200) train_s3 = sagemaker.s3_input(s3_data=train_location, content_type='csv') validation_s3 = sagemaker.s3_input(s3_data=val_location, content_type='csv') xgb_estimator.fit({'train': train_s3, 'validation': validation_s3})
模型评估
-
SageMaker使用transformer对象来评估模型。
-
像estimator这样的transformer对象需要知道instance_count和instance_type以及它需要转换的测试数据的格式。为了让transformer以批处理方式评估测试数据,我们需要让它知道拆分类型是什么,以便将文件分成块。
xgb_transformer = xgb_estimator.transformer(instance_count = 1, instance_type = 'ml.m4.xlarge') xgb_transformer.transform(test_location, content_type='text/csv', split_type='Line') xgb_transformer.wait()
现在,为了把数据从s3移回Notebook进行分析,我们把数据复制一遍
!aws s3 cp --recursive $xgb_transformer.output_path $data_dir
现在我们来评估!
Y_pred = pd.read_csv(os.path.join(data_dir, 'test.csv.out'), header=None)
模型部署
通过高级api进行模型部署非常简单。我将展示一个示例,演示如何部署我们刚刚训练过的上述模型。
#调用deploy方法启动端点实例 xgb_predictor = xgb_estimator.deploy(initial_instance_count=1, instance_type='ml.m4.xlarge') xgb_predictor.content_type = 'text/csv' xgb_predictor.serializer = csv_serializer Y_pred = xgb_predictor.predict(X_test.values).decode('utf-8') #做完后别忘了关机/清理!
-
与我们如何使用transformer对象进行评估类似,我们可以对部署的模型执行相同的操作。我们可以在不同的概念漂移(可能导致模型衰退的数据的底层分布的变化)运行后的比较这些结果。
-
根据测试集的大小,我们可以决定是一次性发送数据还是分块发送数据。
-
Xgb predictor需要知道文件的格式以及要使用的序列化器的类型。
这是一个非常简单的方法,可以尝试在AWS Sagemaker上设置第一个ml工作流。我建议你先从简单的开始,然后再转向复杂的。我们将在后面的文章中讨论较低级别的api,并真正深入到细节中。但是为了获得基本的理解,请尝试使用一些简单的数据集进行设置,并使用可用的不同模型。
清理
记得:
-
删除终端和终端配置
-
删除模型
-
删除s3存储桶
-
停止未使用的Notebook实例
到此,相信大家对“怎么在Amazon Sagemaker上设置功能”有了更深的了解,不妨来实际操作一番吧!这里是亿速云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!
原创文章,作者:奋斗,如若转载,请注明出处:https://blog.ytso.com/231810.html