mysqli_fetch_assoc只返回一个结果[关闭](mysqli_fetch_assoc only returning one result [closed])
我过去曾经多次使用过这段代码,之前它已经返回了很多行...现在它只返回一行。
$sql = "SELECT * FROM jobs"; $query = mysqli_query($db_conx, $sql); while($row = mysqli_fetch_assoc($query)){ echo $row['action']; }
有任何想法吗? 先谢谢你。
I have used this code many times in the past, and it has returned many rows of data before...now it is only returning one.
$sql = "SELECT * FROM jobs"; $query = mysqli_query($db_conx, $sql); while($row = mysqli_fetch_assoc($query)){ echo $row['action']; }
Any ideas? Thank you in advance.
原文:https://stackoverflow.com/questions/18450597
更新时间:2021-10-30 13:10
最满意答案
像这样的东西应该工作:
import boto.ec2.cloudwatch import datetime end = datetime.datetime.utcnow() start = end - datetime.timedelta(minutes=5) c = boto.ec2.cloudwatch.connect_to_region('us-east-1') data = c.get_metric_statistics(period=60, start_time=start, end_time=end, metric_name='ConsumedWriteCapacityUnits', namespace='AWS/DynamoDB', statistics=['Sum'],dimensions={'TableName': 'mytable'})
这应该是一个数据点列表。 您应该对列表中的所有总和进行平均,然后将该数字除以300(周期)。
Something like this should work:
import boto.ec2.cloudwatch import datetime end = datetime.datetime.utcnow() start = end - datetime.timedelta(minutes=5) c = boto.ec2.cloudwatch.connect_to_region('us-east-1') data = c.get_metric_statistics(period=60, start_time=start, end_time=end, metric_name='ConsumedWriteCapacityUnits', namespace='AWS/DynamoDB', statistics=['Sum'],dimensions={'TableName': 'mytable'})
This should a list of data points. You should average all of the sums in the list and then divide that number by 300, the period.
相关问答
更多-
与表 : table = Table('accounts') results = table.query(index='NameIndex', account_id__eq=account['id'], name__eq=name) 或与连接 : results = conn.query( table_name='accounts', index_name='NameIndex', select='ALL_PROJECTED_ATTRIBUTES', key_condi ...
-
DynamoDB旨在确保您的配置容量以每秒为单位提供。 如果您每秒提供十个1kB读取的表,那么DynamoDB将为您提供足够的容量来处理该吞吐率。 此外,DynamoDB有时可以让您在短时间内实现超过您提供的吞吐量的有限爆炸。 这旨在吸收客户工作负载中的自然变化。 这种突发不能保证,并且并不总是可用(并且可用的突发的性质可能随时间而改变)。 如最佳实践文档中所述,为了获得最佳性能,您应该具有均匀分布的工作负载,不会超过您的配置容量,并将负载均匀分配到密钥空间。 然而,如果您的应用程序的生产行为的现实偏离均匀 ...
-
DynamoDB读写(DynamoDB read and write)[2023-10-25]
请看这个链接: http : //aws.amazon.com/dynamodb/faqs/ 1 Write = 1每秒写入一个大小为1Kb的项目。 1读取= 2每秒读取大小为1Kb的项目,如果您需要完全一致的结果,则每秒读取1次。 例如,如果您的项目是512字节,并且您需要从表中读取每秒100个项目,那么您需要配置100个单位的读取容量。 如果您的项目大小超过1KB,则应计算所需的读取容量和写入容量的单位数。 例如,如果您的项目是1.5KB并且您想要执行100次读取/秒,那么您需要提供100(每秒读取数) ... -
不,DynamoDB不支持事务或锁定等。您需要以这样的方式为数据和应用程序代码建模,即使另一个进程正在写入/读取,它也不会影响您的数据。 检查表状态没有帮助 - 创建表后,大多数时候它是ACTIVE。 这仅用于创建或更新表(而不是用于编写项) Dynamo提供了以下一些功能来帮助进行此类数据建模: 条件更新(您可以告诉写入仅在属性的值为X时才会发生)。 http://docs.aws.amazon.com/amazondynamodb/latest/developerguide/WorkingWithIte ...
-
可以使用LSI / GSI。 请参阅此处的boto教程(搜索LSI,您将获得示例)。 DynamoDB2 - boto v2.25.0: http ://boto.readthedocs.org/en/latest/ref/dynamodb2.html 添加一个完整的工作示例(尝试使用dynamo local: http : //docs.aws.amazon.com/amazondynamodb/latest/developerguide/Tools.DynamoDBLocal.html ) conn = ...
-
批处理将在发送请求时启动,并在批处理中的最后一个请求完成时结束。 与任何RESTful API一样 ,每个请求都带有成本 ,这意味着完成所述请求需要多少/多少资源。 使用batch_write()类,它们将请求包装在一个组中并创建一个队列来处理它们,这将降低成本,因为它们不再是单个请求。 batch_write()类返回一个上下文管理器,它处理各个请求,你得到的内容略微类似于Table对象,但只有put_item和delete_item请求。 DynamoDB的最大批量大小为25,就像你读过的那样。 来自源 ...
-
简而言之,您将对扫描的项目总金额(不是退回的项目总金额)“收费”。 与查询 (如您已经提到的)相比, 扫描是一项昂贵的操作。 值得一提的是,当您在桌面上调用扫描时,并不意味着将扫描整个表格。 如果扫描项目的大小超过1MB的限制,扫描将停止,您必须再次调用它以扫描表格的下一部分。 这取自官方文档: 如果扫描项目的总数超过最大数据集大小限制1 MB,则扫描将停止,并将结果作为LastEvaluatedKey值返回给用户,以在后续操作中继续扫描。 结果还包括超出限制的项目数。 扫描可能导致没有符合过滤条件的表数据 ...
-
设ceil()是一个将非整数值舍入到下一个最高整数的函数。 1个写入单位允许您每秒写入1 / ceil(item_size / 1kB)项目。 1个读取单元允许您每秒读取1 / ceil(item_size / 4kB)项目。 所以,例如: 48个写入容量单位允许48次写入的项目最大为 1 kB,或者24次写入的项目超过1kB到2kB,或者16次写入的项目超过2kB到3kB等。 48个读取容量单位允许您读取最多 4kB的48个项目,或4kB到48kB的24个项目。 如果项目超出相关操作的块大小,则您的订阅费 ...
-
我可以获得DynamoDB或DynamoDB2表的实际写入容量的值(Can I get value of actual write capacity of DynamoDB or DynamoDB2 table)[2023-05-30]
像这样的东西应该工作: import boto.ec2.cloudwatch import datetime end = datetime.datetime.utcnow() start = end - datetime.timedelta(minutes=5) c = boto.ec2.cloudwatch.connect_to_region('us-east-1') data = c.get_metric_statistics(period=60, start_time=start, end_time ... -
如果您的请求超出ProvisionedThroughputExceededException容量,您将收到ProvisionedThroughputExceededException错误。 错误处理文档说: 您的要求率太高。 适用于DynamoDB的AWS开发工具包会自动重试接收此异常的请求 。 您的请求最终会成功,除非您的重试队列太大而无法完成。 使用指数退避减少请求的频率。 另请注意,DynamoDB提供Burst Capacity 。 从“使用表格指南”文档: DynamoDB在每分区吞吐量配置方面提 ...