我一直在对包含大约 500.000 条双精度数字记录的列进行总和。数据库中的所有数字通常应该在句点后面有两个密码。但是,在计算总和时,我得到了 6 个数字:123123123.549977
要么我的数据库中有错误的数据,在这段时间之后有更多数字的记录,要么我缺少 sum 函数的一些东西。
所以我的问题是:
- sum 函数是否有任何可能导致这种情况的舍入属性?
- 有没有办法在句号之后选择所有包含两个以上数字的记录?
我一直在对包含大约 500.000 条双精度数字记录的列进行总和。数据库中的所有数字通常应该在句点后面有两个密码。但是,在计算总和时,我得到了 6 个数字:123123123.549977
要么我的数据库中有错误的数据,在这段时间之后有更多数字的记录,要么我缺少 sum 函数的一些东西。
所以我的问题是:
所以我正在构建一个不断从 API 获取数据的应用程序,基本上 API 通过 JSON 输出数据,它显示不同主机的特定速度。我在这里想要的是每分钟查询一次应用程序并将这些数据存储在数据库中。
这个想法是应用程序将使用数据来构建图表。这些图表将分别显示所有主机和每个主机的集体速度。主机分配给用户
1个用户有多个主机,每个主机都有一定的速度。现在考虑到将要存储的数据会随着时间的推移而增长,并且实体之间的关系相当有限,我想知道我是否应该看看像 MongoDB 或 DynamoDB 这样的 NoSQL 数据库。
我想要做的是以下概念:
SELECT field1,field2,field3
FROM table1
where field3 like '%'+(SELECT distinct field from table2)+'%'
但这是不允许的,因为 like 不接受多个值。如何重写此查询,以便可以将一个字段与另一个表中的多个结果值进行通配符匹配?
我正在构建一个应用程序,它将每隔一段时间使用 JSON 获取消息并将这些消息存储在 postgres 数据库中。现在我想防止重复,所以我计算了消息的 sha-512 并将其设置为主键。由于我想防止重复,我可以做两件事:
考虑到我可能一次插入几条消息,我想知道方法二是否会查找主键并查看每个插入是否存在,而不是使用方法 1 仅将列表存储在内存中。什么是最高效的?
我正在审查一个数据库服务器,问题是大约有 40 个数据库,每个数据库有数百个表。我正在寻找列名包含特定单词的表。
有没有办法可以搜索来识别这些表?
我收到了一个有几百万条记录的数据库,但显然其中可能有重复的记录。
用户向数据库中输入数据并生成主键,但是如果用户再次输入相同的数据,将为该数据生成一个新的主键,即使该数据之前已经输入过。没有对此进行检查。
我需要去寻找这些重复项,但我真的不知道从哪里开始。我首先想到连接子查询中除主键之外的所有单元格,然后计算这些行并查看哪些行的计数高于 1。
比照。
pkey recipe fkey comment
1 toast 3 tasty
2 curry 2 spicy
3 curry 2 spicy
4 bread 1 crumbly
5 orios 2 cookies
这里的 curry 条目是相同的,我必须删除其中的 1 个。
但是我读到在 mysql 中连接是不可预测的,我也觉得有点不对劲。
有什么提示吗?
我必须编写一个简单的查询,在其中查找以 B 或 D 开头的人名:
SELECT s.name
FROM spelers s
WHERE s.name LIKE 'B%' OR s.name LIKE 'D%'
ORDER BY 1
我想知道是否有办法重写它以提高性能。所以我可以避免or
和/或like
?
我将如何在 postgres 中执行此操作:
假设我有一个 x 和 ay,我想显示所有可能的组合:
xx
yy
xy
yx
我怎样才能让 postgres 为我做这件事?