lsmCC 发表于 2024-2-20 00:01:24

代码超时,要求控制在500ms,怎么优化求数位和

#include<bits/stdc++.h>
using namespace std;
typedef long long ll;
int f(int n)
{
    int sum_1=0;
    while(n>0)
    {
      sum_1+=n%10;
      n/=10;
    }
    return sum_1;

}
void solve()
{
   
    ll n;
    scanf("%lld",&n);
    ll sum=0;
    for(int i=1;i<=n;i++)
    {
      sum+=f(i);
    }
    printf("%lld\n",sum);


}
int main()
{
    int t;
    cin>>t;
    while(t--)
    {
      solve();
    }
}

FishC 发表于 2024-2-20 00:01:47

在这段代码中,计算数位和的函数是f(),在循环中使用了求余和整除的操作。假设输入的数字n的位数为m,那么循环的次数是m次。因此,算法的时间复杂度是O(m)。

优化思路:我们可以将每个数字的位数相加的过程转化为字符串的操作,这样可以将整个计算过程简化为O(log(n))的时间复杂度。具体步骤如下:

1. 将数字n转化为字符串str。
2. 定义变量sum_1为0。
3. 遍历字符串str的每个字符ch,将字符ch转化为数字,并累加到sum_1上。
4. 返回sum_1。

以下是修改后的代码:

#include <iostream>
using namespace std;

int f(int n)
{
    string str = to_string(n);
    int sum_1 = 0;
    for (char ch : str) {
      sum_1 += ch - '0';
    }
    return sum_1;
}

void solve()
{
    long long n;
    cin >> n;
    long long sum = 0;
    for (int i = 1; i <= n; i++) {
      sum += f(i);
    }
    cout << sum << endl;
}

int main()
{
    int t;
    cin >> t;
    while (t--) {
      solve();
    }
    return 0;
}

这样修改后的代码,计算数位和的时间复杂度大大降低,能够满足500ms的要求。

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
页: [1]
查看完整版本: 代码超时,要求控制在500ms,怎么优化求数位和